cisco数据中心理论小记-3

2023-01-31 03:01:29 数据中心 理论 小记

=====port channel=============

STP-防环,非根非指定口block.
PCH-带宽利用率提升,逻辑上单链路 l2/l3都可以使用

passive -LACP /active-Lacp/ on-Static

无协议-on
有协商-LACP

neuxs 不支持PACP

vPC---纯二层 技术,没有三层功能

vitrual Port channel

解决的是跨框 ,目前只支持仅2台,逻辑上2台变逻辑一台,结合生成一个虚拟nexus 交换机

VPC: 最后的效果就是无环,链路全部打开.
domain id,peers{一个设备只能create一个domain,两台设备的domain id要一样}
PKL: peer keep live,UDP3200,不建议背对背--->check alive
PL:peer link ,万兆10G以太网链路背对背 ,就是port channel--->transfer data,用来传流量.一般是用来传控制流量. A<--->B 间传CFS
PORTS:member port :交换机上双上行口 , orphan (孤立口)port :交换机单上行口


VPC控制面:

CFS oe (over ethert):传了一堆控制面的信息
roles: 一台是 primary  另外一台是sencondary VPC没有抢占机制.

VPC数据面:

限制条件:所有流量经过PL就不回从member口出去.

出流量就近处理。

peer gateway-默认打开的---for external traffic


VPC member port down产生后果:无附加后果

PKL Down: 各做各的事情

PL Down (PKL fine): seconday member ports suspend

PKL Down and PL down===>双活/脑裂 各做个

补救:auto recovery

 
============Febric path==========

解决东西流量16-ways扩展,理解为16个上游,由于VPC只能支持2个设备,FP就诞生了,基于会话Mac地址学习. 大二层解决方案/SPINE-LEAF--FP,一旦spine多了,不同的LEAF就可以相互通信,从而实现了大二层. .受VXLAN打击现在用的少.

配置非常简单:开启feature,打开端口,划好vlan.


相同技术:Trill
FP-----EVE--大多都是自动配置的

FP 端口角色:

core ports:仅收发fp帧,没有mac address table. edge ports:可发传统帧,基于MAC地址学习

core ports<--->fp<----->edge ports --->CE [classic ethernet]

core & edge 成对出现,形成邻居 ,全网跑isis,不用配,全网传递信息.

控制面: L2 ISIS 自己形成switch id ---IF 的对应表

unified port: 统一端口用来传ethernet OR FC,一个瞬间只能传ethernet or FC
unified fabric:统一架构 支持 FCOE,基于以太网的类型来区分到底是over ethernet还是纯ethernet?!

FCOE 拓扑:

CNA<vN port>===<vF port>N5K

CNA <vN port>====<vF port>Nexus 2K Fex (fabric exterder)====Fabric link====Nexus 5000

FCOE and vPC:Fcoe的流量只能走单边


======SDN & CLOUD====================================
SDN/Rest api
clinet ----> Http --->server / provider ---> server
server ----> http ---->JSON/xml ----> clinet

SDN自动化控制器
NB 北向标准----- human----标准rest API

SB  南向标准----- device ----标准netconf<内容层,操作层,消息层,加密通信层-ssh/tcp>

netconf比较

wKioL1nUkCrSc0BcAAjV8aU1Y70318.png-wh_50


云计算
自服务化
可扩展化
资源池化(虚拟化)
可以随时访问
IAAS: infrastruture  as a service---open stack用来管理IAAS
PAAS: platfORM as a service---platform for develop
SAAS: software as a service--desktop application

UCSd : UCS director 相当于云管理平台


ACI/SDN: controller, APIC-DC,维护方式:GUI

北方向--REST API--SDN/Ph

南方向--opflex---N9K,APIC 控制 N9K角色,下发policy



===============CCIE process=============
N7K 启动过程:
kenerl: boot flash: ****kickstart.bin
no mantennace mode
(boot)load bootflash:***.bin


二层协议:
STP : Rapid PVST / PVRST+ /MST

Toolkit:

-----单向链路问题-----

loop gurad:配置在端口,避免进入foward状态,只对单一设备生效。不常用 。

BA:Bridge assurance.一种类似 loop guard的 功能 .
BA bridge assurance:需要链路两段都配,所有端口 状态都可以 配 ,确保链路不会进去 环路 状态
上面 两种 技术都要 依赖 BPDU.
UDLD:不依赖BPDU.一层检查设备连接

=====vPC======

show vpc role

show vpc status


interface edage )# vpc memeber 100
双下联:member port
单下联: oraphe port

vPC种类 :
standard vpc
enhance vpc
vpc over fp=== VPC plus
vpc over vxlan
vpc over aci


VPC guidelines:
1-switch type 平台一样
2-link speed: 10Gbp+
3-vpc keep live (三层可达,不建议 背对背) udp 3200 port
4-vpc peer link:万兆卡
5-number of VPC peers:2
6-number of VPC domain PER switch:1
7-routing 《vpc peer-gateway》


VPC最佳 用在接入层

1-create domain

2-configure PKL

3-configure PL ,建议背对背

4-create vpc

5-peer gateway {optional}

6-一致性检查


vPC 故障分析

1-memeber port down----no effect,memeber port change to orphan port.

2-PKL down only---- no role change.双方都认为对方不在online, 然后各做各的事情 forwarding

3-only PL Down ------ 双方信息不能同步 ,但直到对方在,secondary memeber ports suspended.

4-PKL down then PL down-----双方彻底失联。导致的结果是双活OR脑裂。各做各,中间有不确定路径.双方role都变为 primary. 链路恢复,定义角色恢复

5-PL DOWN then PKL down--------可以配置auto-recovery , 可以让secondary memeber port 激活,工作 ,最后的结果是 双活 OR 脑裂 .

vPC over FCOE 只能走单边。

vPC over ACI ,no need PL/pkl, 同步信息都是通过 controller(ZMQ信息instead of CFS)

====FEX=====
Fex:就是远程板卡 Fex and vn tag,极度依赖parent
HIF,LIF,VIF (according to VNTAG forwarding)

deployment type:static pinning,dynamic pinning (default), active-active,ehanced vPC.


======Fabric Path=====: MAC IN MAC 构造


=====FHRP=====(第一跳冗余协议)

HSRP/VRRP/GLBP

 


=======OTV========

Overlay transport vituralisation,不用MPLS L2×××,不用拉物理线路的前提下一种廉价技术方案. 不同数据中心二层访问解决方案。

OTV完成了:

1-mac路由 ,实现多个数据中心二层互通 《mac in ip》===>不是大二层技术,实现特定 vlan通信,而是DCI[跨数据中心]技术 ,跨数据中心mac互通,让两个站点间vlan互通。

mac routing-- conftrol plane:isis

2-dynamic encap of l2 in l3,动态封装

3-Arp cache ,支持组播 etc...


OTV构成components:

edge devices:N7k support only OTV (边缘设备,一般是旁挂方式)

边界设备有三种接口:

1-internal interfacs: 二层流量,二层口,纯MAC with vlan id
2-join interface:can support组播流量 <三层口>
3-overlay interface:本地给包做封装,本地环回口

PS:两边DC的SUBNET必须一致,VLANID最好保持一致


OTV Control plane: is-is 可以单播也可以组播 建立邻居关系

单播的话就需要制定一个单播服务器,把边界设备注册到单播服务器上

最后的结果形成vlan-mac-IF 这样对应表,进行mac routing.

show otv adjacency

show otv route //不是三层route


data plane: over gre (mpls 头), 老版本,效率低 

                  over udp (vxlan头), 新版本,效率高,需要手动制定

otv encapsulation-format ip gre | udp


otv 不传bpdu,未知单播流,避免环路和广播风暴


如果一个site有两个otv uplink,需要配site vlan,做统一站点识别


DC1:

feature otv

 interface overlay1

otv join-inter

otv exend-vlan 100,200

otv site-vlan 300 \\不传流量

otv site-id 0x1  \\dc site id

adj xxxx


DC2:

feature otv

 interface overlay1

otv join-inter

otv exend-vlan 100,200

otv site-vlan 300 \\不传流量,可以根dc1一样,也可以不一样

otv site-id 0x2  \\dc site id,必须跟DC1不一样

adj xxxx


OTV VLAN MApping 200 to 400 \\转vlan, 两dc转后的vlan必须一致.



=========

云系统 架构

=========

hardware infras:底层资源

domain abstraction:资源池化

system abstraction:云 管理 平台 -open stack

wKioL1mIkCGzzx-IAAIS_vLqK8k173.png

相关文章