cisco数据中心理论小记-3
=====port channel=============
STP-防环,非根非指定口block.
PCH-带宽利用率提升,逻辑上单链路 l2/l3都可以使用
passive -LACP /active-Lacp/ on-Static
无协议-on
有协商-LACP
neuxs 不支持PACP
vPC---纯二层 技术,没有三层功能
vitrual Port channel
解决的是跨框 ,目前只支持仅2台,逻辑上2台变逻辑一台,结合生成一个虚拟nexus 交换机
VPC: 最后的效果就是无环,链路全部打开.
domain id,peers{一个设备只能create一个domain,两台设备的domain id要一样}
PKL: peer keep live,UDP3200,不建议背对背--->check alive
PL:peer link ,万兆10G以太网链路背对背 ,就是port channel--->transfer data,用来传流量.一般是用来传控制流量. A<--->B 间传CFS
PORTS:member port :交换机上双上行口 , orphan (孤立口)port :交换机单上行口
VPC控制面:
CFS oe (over ethert):传了一堆控制面的信息
roles: 一台是 primary 另外一台是sencondary VPC没有抢占机制.
VPC数据面:
限制条件:所有流量经过PL就不回从member口出去.
出流量就近处理。
peer gateway-默认打开的---for external traffic
VPC member port down产生后果:无附加后果
PKL Down: 各做各的事情
PL Down (PKL fine): seconday member ports suspend
PKL Down and PL down===>双活/脑裂 各做个
补救:auto recovery
============Febric path==========
解决东西流量16-ways扩展,理解为16个上游,由于VPC只能支持2个设备,FP就诞生了,基于会话Mac地址学习. 大二层解决方案/SPINE-LEAF--FP,一旦spine多了,不同的LEAF就可以相互通信,从而实现了大二层. .受VXLAN打击现在用的少.
配置非常简单:开启feature,打开端口,划好vlan.
相同技术:Trill
FP-----EVE--大多都是自动配置的
FP 端口角色:
core ports:仅收发fp帧,没有mac address table. edge ports:可发传统帧,基于MAC地址学习
core ports<--->fp<----->edge ports --->CE [classic ethernet]
core & edge 成对出现,形成邻居 ,全网跑isis,不用配,全网传递信息.
控制面: L2 ISIS 自己形成switch id ---IF 的对应表
unified port: 统一端口用来传ethernet OR FC,一个瞬间只能传ethernet or FC
unified fabric:统一架构 支持 FCOE,基于以太网的类型来区分到底是over ethernet还是纯ethernet?!
FCOE 拓扑:
CNA<vN port>===<vF port>N5K
CNA <vN port>====<vF port>Nexus 2K Fex (fabric exterder)====Fabric link====Nexus 5000
FCOE and vPC:Fcoe的流量只能走单边
======SDN & CLOUD====================================
SDN/Rest api
clinet ----> Http --->server / provider ---> server
server ----> http ---->JSON/xml ----> clinet
SDN自动化控制器
NB 北向标准----- human----标准rest API
SB 南向标准----- device ----标准netconf<内容层,操作层,消息层,加密通信层-ssh/tcp>
netconf比较
云计算:
自服务化
可扩展化
资源池化(虚拟化)
可以随时访问
IAAS: infrastruture as a service---open stack用来管理IAAS
PAAS: platfORM as a service---platform for develop
SAAS: software as a service--desktop application
UCSd : UCS director 相当于云管理平台
ACI/SDN: controller, APIC-DC,维护方式:GUI
北方向--REST API--SDN/Ph
南方向--opflex---N9K,APIC 控制 N9K角色,下发policy
===============CCIE process=============
N7K 启动过程:
kenerl: boot flash: ****kickstart.bin
no mantennace mode
(boot)load bootflash:***.bin
二层协议:
STP : Rapid PVST / PVRST+ /MST
Toolkit:
-----单向链路问题-----
loop gurad:配置在端口,避免进入foward状态,只对单一设备生效。不常用 。
BA:Bridge assurance.一种类似 loop guard的 功能 .
BA bridge assurance:需要链路两段都配,所有端口 状态都可以 配 ,确保链路不会进去 环路 状态
上面 两种 技术都要 依赖 BPDU.
UDLD:不依赖BPDU.一层检查设备连接
=====vPC======
show vpc role
show vpc status
interface edage )# vpc memeber 100
双下联:member port
单下联: oraphe port
vPC种类 :
standard vpc
enhance vpc
vpc over fp=== VPC plus
vpc over vxlan
vpc over aci
VPC guidelines:
1-switch type 平台一样
2-link speed: 10Gbp+
3-vpc keep live (三层可达,不建议 背对背) udp 3200 port
4-vpc peer link:万兆卡
5-number of VPC peers:2
6-number of VPC domain PER switch:1
7-routing 《vpc peer-gateway》
VPC最佳 用在接入层
1-create domain
2-configure PKL
3-configure PL ,建议背对背
4-create vpc
5-peer gateway {optional}
6-一致性检查
vPC 故障分析
1-memeber port down----no effect,memeber port change to orphan port.
2-PKL down only---- no role change.双方都认为对方不在online, 然后各做各的事情 forwarding
3-only PL Down ------ 双方信息不能同步 ,但直到对方在,secondary memeber ports suspended.
4-PKL down then PL down-----双方彻底失联。导致的结果是双活OR脑裂。各做各,中间有不确定路径.双方role都变为 primary. 链路恢复,定义角色恢复
5-PL DOWN then PKL down--------可以配置auto-recovery , 可以让secondary memeber port 激活,工作 ,最后的结果是 双活 OR 脑裂 .
vPC over FCOE 只能走单边。
vPC over ACI ,no need PL/pkl, 同步信息都是通过 controller(ZMQ信息instead of CFS)
====FEX=====
Fex:就是远程板卡 Fex and vn tag,极度依赖parent
HIF,LIF,VIF (according to VNTAG forwarding)
deployment type:static pinning,dynamic pinning (default), active-active,ehanced vPC.
======Fabric Path=====: MAC IN MAC 构造
=====FHRP=====(第一跳冗余协议)
HSRP/VRRP/GLBP
=======OTV========
Overlay transport vituralisation,不用MPLS L2×××,不用拉物理线路的前提下一种廉价技术方案. 不同数据中心二层访问解决方案。
OTV完成了:
1-mac路由 ,实现多个数据中心二层互通 《mac in ip》===>不是大二层技术,实现特定 vlan通信,而是DCI[跨数据中心]技术 ,跨数据中心mac互通,让两个站点间vlan互通。
mac routing-- conftrol plane:isis
2-dynamic encap of l2 in l3,动态封装
3-Arp cache ,支持组播 etc...
OTV构成components:
edge devices:N7k support only OTV (边缘设备,一般是旁挂方式)
边界设备有三种接口:
1-internal interfacs: 二层流量,二层口,纯MAC with vlan id
2-join interface:can support组播流量 <三层口>
3-overlay interface:本地给包做封装,本地环回口
PS:两边DC的SUBNET必须一致,VLANID最好保持一致
OTV Control plane: is-is 可以单播也可以组播 建立邻居关系
单播的话就需要制定一个单播服务器,把边界设备注册到单播服务器上
最后的结果形成vlan-mac-IF 这样对应表,进行mac routing.
show otv adjacency
show otv route //不是三层route
data plane: over gre (mpls 头), 老版本,效率低
over udp (vxlan头), 新版本,效率高,需要手动制定
otv encapsulation-format ip gre | udp
otv 不传bpdu,未知单播流,避免环路和广播风暴
如果一个site有两个otv uplink,需要配site vlan,做统一站点识别
DC1:
feature otv
interface overlay1
otv join-inter
otv exend-vlan 100,200
otv site-vlan 300 \\不传流量
otv site-id 0x1 \\dc site id
adj xxxx
DC2:
feature otv
interface overlay1
otv join-inter
otv exend-vlan 100,200
otv site-vlan 300 \\不传流量,可以根dc1一样,也可以不一样
otv site-id 0x2 \\dc site id,必须跟DC1不一样
adj xxxx
OTV VLAN MApping 200 to 400 \\转vlan, 两dc转后的vlan必须一致.
=========
云系统 架构
=========
hardware infras:底层资源
domain abstraction:资源池化
system abstraction:云 管理 平台 -open stack
相关文章