华为存储 OceanStor2200v3重置超级管理员密码

如果超级管理员忘记登录密码,本节操作将指导超级管理员重置登录密码。

背景信息

如果默认用户名为“admin”的超级管理员忘记密码,请联系用户名为“_super_admin”的根管理员通过串口登录CLI管理界面,执行initpasswd命令重置密码。

操作步骤

  1. 以用户名为“_super_admin”的根管理员身份通过串口登录CLI管理界面。
  2. 用户名为“_super_admin”的根管理员,系统初始密码为“Admin@revive”。
  3. 执行initpasswd命令,重置超级管理员的登录密码。
    • Storage: _super_admin> initpasswd
      • please input username:admin
      • init admin passwd,wait a moment please...
      • *****please enter new password for admin :***** *****
      • please re-enter new password for admin :*****
      • Init admin passwd succeeded

设置用户密码永不过期

本节指导如何将用户密码设置为永不过期状态。

操作步骤

可以通过修改密码策略或修改用户属性两种方式设置密码永不过期。

  1. 修改密码策略方式将存储系统所有用户的密码设置为永不过期。
  2. 修改用户属性方式仅将制定用户的密码设置为永不过期。该方式仅适用于V300R006C30及后续版本。
  1. 修改密码策略方式。
    1. 登录DeviceManager。
    2. 选择“设置 > 权限设置 > 安全策略”。
      1. 在右侧导航栏上,单击“设置”。
      2. 在左侧设置管理界面的“基础服务设置”区域,单击“权限设置”。系统进入“权限设置”页面。
      3. 在左侧导航中,选择“安全策略”。系统进入“安全策略”页面。
    3. 去勾选“密码有效期(天)”。
    4. 单击“保存”。系统弹出“执行结果”对话框,提示状态成功。
    5. 单击“关闭”。存储系统所有用户密码将永不过期。
  2. 修改用户属性方式。
    1. 登录DeviceManager。
    2. 选择“设置 > 权限设置 > 用户管理”。
    3. 在中间信息展示区,选择指定用户名并单击“修改”。系统弹出“修改用户”对话框。
    1. 勾选“密码永不过期”。
    2. 单击“确定”。系统弹出“执行结果”提示框,提示操作成功。
    3. 单击“关闭”。该用户密码将永不过期。

什么是 vSphere with Tanzu?

可以使用 vSphere with Tanzu 将 vSphere 转换为在 Hypervisor 层上以本机方式运行 Kubernetes 工作负载的平台。在 vSphere 集群上启用 vSphere with Tanzu 后,可直接在 ESXi 主机上运行 Kubernetes 工作负载,并可在专用资源池中创建上游 Kubernetes 集群。

当今应用体系的挑战

如今的分布式系统由多个通常运行大量 Kubernetes Pod 和虚拟机的微服务构成。不以 vSphere with Tanzu 为基础的典型堆栈包含一个底层虚拟环境,其中,Kubernetes 基础架构部署在虚拟机内,Kubernetes pod 也分别运行在这些虚拟机中。有三个单独的角色分别控制该体系的每个部分,即应用程序开发人员、Kubernetes 集群管理员和 vSphere 管理员。

当今的应用体系

不同角色无法看到或控制其他角色的环境:

  1. 作为应用程序开发人员,您可以运行 Kubernetes pod,并部署和管理基于 Kubernetes 的应用程序。您看不到运行数百个应用程序的整个体系。
  2. 作为 Kubernetes 集群管理员,您只能控制 Kubernetes 基础架构,没有任何工具可以管理或监控虚拟环境和解决与资源相关的任何问题以及其他问题。
  3. 作为 vSphere 管理员,您对底层虚拟环境具有完全控制权,但看不到 Kubernetes 基础架构、虚拟环境中不同 Kubernetes 对象的位置以及它们使用资源的方式。

整个堆栈上的操作可能会非常困难,因为这些操作需要所有三个角色之间进行通信。堆栈的不同层之间缺乏集成,这也可能带来难题。例如,Kubernetes 调度程序无法查看 vCenter Server 清单,并且无法智能地放置容器。

vSphere with Tanzu 如何提供帮助?

vSphere with Tanzu 直接在 Hypervisor 层上创建 Kubernetes 控制平面。作为 vSphere 管理员,您可以为 vSphere with Tanzu 启用现有 vSphere 集群,从而在属于该集群的 ESXi 主机中创建 Kubernetes 层。启用了 vSphere with Tanzu 的集群称为 主管集群。

vSphere with Tanzu

在 Hypervisor 层上具有 Kubernetes 控制平面后,可以在 vSphere 中启用以下功能:

  1. 作为 vSphere 管理员,您可以在 主管集群 上创建命名空间(称为 主管命名空间),然后为其配置特定的内存量、CPU 和存储量。您可将 主管命名空间 提供给 DevOps 工程师。
  2. 作为 DevOps 工程师,您可以使用 主管命名空间 内的共享资源池在同一平台上运行包含 Kubernetes 容器的工作负载。在 vSphere with Tanzu 中,容器在称为 vSphere Pod 的特殊类型的虚拟机中运行。
  3. 作为 DevOps 工程师,您可以在命名空间中创建和管理多个 Kubernetes 集群,并使用 Tanzu Kubernetes Grid 服务 管理其生命周期。使用 Tanzu Kubernetes Grid 服务 创建的 Kubernetes 集群称为 Tanzu Kubernetes 集群。
  4. 作为 vSphere 管理员,您可以使用与常规虚拟机相同的工具来管理和监控 vSphere Pod 和 Tanzu Kubernetes 集群。
  5. 作为 vSphere 管理员,您可以全面了解在不同命名空间中运行的 vSphere Pod 和 Tanzu Kubernetes 集群、它们在环境中的放置以及它们使用资源的情况。

通过在 Hypervisor 层上运行 Kubernetes,还可以简化 vSphere 管理员和 DevOps 工程师之间的协作,因为这两个角色使用相同的对象。

什么是工作负载?

在 vSphere with Tanzu 中,工作负载是通过以下方式之一部署的应用程序:

  1. 由在 vSphere Pod 和/或常规虚拟机内运行的容器组成的应用程序。
  2. 使用 VMware Tanzu™ Kubernetes Grid™ 服务 部署的 Tanzu Kubernetes 集群。
  3. 在使用 VMware Tanzu™ Kubernetes Grid™ 服务 部署的 Tanzu Kubernetes 集群内运行的应用程序。

ESXi 客户端(6.0.0)管理手册(简)

一、       VMware ESXi网络配置

1.     修改物理网卡

服务器接入显示器后,正常屏幕显示:

按‘F2’输入账户、密码,登录配置界面:

通过键盘方向键,黑色标识块移至‘Configure Management Network’,回车,进入网络配置界面:

通过键盘方向键,黑色标识块移至‘Network Adapters’,回车,进入网卡配置界面:

‘[X]’表示被选中网卡,通过空格键可以选择或者取消选择,选定后回车,回到网络配置界面。

2.     配置ESXi IPv4

通过键盘方向键,黑色标识块移至‘IPv4 Configuration’,回车,进入IP配置界面:

同样,通过空格键选择IP选择,IP设置方式为:不配置、采用动态IP、采用静态IP。一般选择为静态IP,此时下方可以输入相应的IP地址、子网掩码和默认网关。输入完成后,回车,回到网络配置界面。

键盘按Esc键,退出网络配置界面。如果没有任何改动,会回到初始界面;如果有改动,提示:

键盘按‘Y’,回到初始界面。

配置完成。

二、       VMware vSphere Client登陆

3.     登录vSphere Client

双击 ,打开登陆界面;

在图示1、2、3处相应填写物理主机IP地址、用户名、密码,点击登录(L);

在弹出对话框中,4处打勾,点击5处忽略;

登陆成功,显示VM vSphere Client主页面。点击6处+符号,可查看虚拟机情况,右侧选项卡(7处)可查看当前主机配置情况。

4.     vSphere Client开关机

右键点击需要开启的虚拟机,弹出菜单中选择电源-打开电源;

打开控制台,可以看到虚拟机操作系统界面,发送Ctrl+Alt+Delete,进入桌面;

输入操作系统管理员密码,即可进入。

关机顺序:先关闭虚拟机,再关闭主机(物理主机);

关闭虚拟机:虚拟机操作系统界面中,单击左下角‘开始’,选择关机;

关闭主机:鼠标右键点击主机IP,然后从弹出菜单栏选择关机,来关闭主机。

设置开启主机时自动开启虚拟机:在VM vSphere Client主界面,依次单击图示1、2、3、4位置

此时,在弹出对话框中,1处打勾,单击2处虚拟机,通过点击3处上移或者下移,来决定某虚拟机是否为自动开启或者需手动开启,以及确定不同虚拟机间的开启顺序。例如,在图示中,自动开启组中,如果选中第4个虚拟机,单击下移,此虚拟机将进入任意次序组,再次单击下移,将进入手动启动组,此时开启主机,此虚拟机将不再随主机启动而启动,我们需按照本手册2.1部分所述,进行手动开启。

5.     虚拟机配置

单击虚拟机名称,右侧选项卡可查看该虚拟机相关信息

如需添加设备,右键单击虚拟机,弹出菜单中,选择编辑设置(执行添加操作,请先关闭虚拟机);

单击添加,可选择能够添加的设备

注:如果需要添加USB设备,请先添加USB控制器确定后,再添加USB设备。

6.     获得许可

该虚拟化平台为付费平台,需获得许可。如图示依次单击1、2、3、4部分,打开;

选择向此 主机 分配许可证密钥,单击输入密钥;

输入服务提供方提供的密钥,点击确定,确定。

Linux虚拟机扩展根分区

虚拟机根分区空间不够用,在虚拟机管理界面进行单个磁盘扩展(图形化界面操作略),比如原来是30G,扩展至40G,(扩展需要关机之后操作)

其中的10G空间需要重新分区,以下是分区相关操作让扩展的空间生效:

登录系统之后:

df -h  发现空间没有发生变化:

[root@lub ~]# df -h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

                       25G   19G  4.2G  82% /

tmpfs                 642M     0  642M   0% /dev/shm

/dev/sda1             485M   34M  426M   8% /boot

fdisk -l   发现总容量已经扩展。

[root@lub ~]# fdisk -l

Disk /dev/sda: 42.9 GB, 42949672960 bytes

255 heads, 63 sectors/track, 5221 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00069f1c

——————————

对扩展的磁盘进行分区:

[root@lub ~]# fdisk /dev/sda

WARNING: DOS-compatible mode is deprecated. It’s strongly recommended to

         switch off the mode (command ‘c’) and change display units to

         sectors (command ‘u’).

Command (m for help): p  

Disk /dev/sda: 42.9 GB, 42949672960 bytes

255 heads, 63 sectors/track, 5221 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00069f1c

   Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *           1          64      512000   83  Linux

Partition 1 does not end on cylinder boundary.

/dev/sda2              64        4047    31992832   8e  Linux LVM

Command (m for help): n

Command action

   e   extended

   p   primary partition (1-4)

3

Invalid partition number for type `3′

Command action

   e   extended

   p   primary partition (1-4)

p

Partition number (1-4): 3

First cylinder (4047-5221, default 4047): 

Using default value 4047

Last cylinder, +cylinders or +size{K,M,G} (4047-5221, default 5221): 

Using default value 5221

Command (m for help): p ——-查看分区后的情况

Disk /dev/sda: 42.9 GB, 42949672960 bytes

255 heads, 63 sectors/track, 5221 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00069f1c

Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *           1          64      512000   83  Linux

Partition 1 does not end on cylinder boundary.

/dev/sda2              64        4047    31992832   8e  Linux LVM

/dev/sda3            4047        5221     9431826+  83  Linux

—新增的sda3

Command (m for help): w  保存分区

The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 16: Device or resource busy.

The kernel still uses the old table. The new table will be used at

the next reboot or after you run partprobe(8) or kpartx(8)

Syncing disks.

[root@lub ~]#

——————–使用命令发现partprobe /dev/sda3发现分区并没有起作用:

[root@lub ~]# partprobe /dev/sda3

Error: Could not stat device /dev/sda3 – No such file or directory.

    [root@lub ~]# pvcreate /dev/sda3

    Device /dev/sda3 not found (or ignored by filtering).

—–重启系统。

  ——LVM操作。扩展根分区

[root@lub ~]# pvcreate /dev/sda3

  Physical volume “/dev/sda3” successfully created

[root@lub ~]# vgs

  VG       #PV #LV #SN Attr   VSize  VFree

  VolGroup   1   2   0 wz–n- 30.51g    0 

[root@lub ~]# vgextend VolGroup /dev/sda3

  Volume group “VolGroup” successfully extended

[root@lub ~]# vgs

  VG       #PV #LV #SN Attr   VSize  VFree

  VolGroup   2   2   0 wz–n- 39.50g 8.99g

[root@lub ~]# lvextend -L +8.99G /dev/mapper/VolGroup-lv_root 

  Rounding size to boundary between physical extents: 8.99 GiB

  Extending logical volume lv_root to 33.50 GiB

  Logical volume lv_root successfully resized

[root@lub ~]# resize2fs /dev/mapper/VolGroup-lv_root 

resize2fs 1.41.12 (17-May-2010)

Filesystem at /dev/mapper/VolGroup-lv_root is mounted on /; on-line resizing required

old desc_blocks = 2, new_desc_blocks = 3

Performing an on-line resize of /dev/mapper/VolGroup-lv_root to 8781824 (4k) blocks.

The filesystem on /dev/mapper/VolGroup-lv_root is now 8781824 blocks long.

—-命令操作根分区情况,发现已经生效:

[root@lub ~]# df -h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

                       33G   19G   13G  60% /

tmpfs                 642M     0  642M   0% /dev/shm

/dev/sda1             485M   34M  426M   8% /boot

[root@lub ~]# 

    完成扩展

通过linux自带的bond技术实现linux双网卡绑定和负载均衡

通过linux自带的bond技术实现linux双网卡绑定和负载均衡

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片

一、建立虚拟网络接口ifcfg-bond0文件

[root@jason ~]# cd /etc/sysconfig/network-scripts/

[root@jason network-scripts]# cp ifcfg-eth0 ifcfg-bond0

其内容为:

[root@jason network-scripts]# more ifcfg-bond0

# Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet

DEVICE=bond0

BROADCAST=10.0.0.255

IPADDR=10.0.0.3

NETMASK=255.255.255.0

NETWORK=10.0.0.0

MTU=1500

GATEWAY=10.0.0.1

[root@jason network-scripts]#

二、编辑原有网卡eth0eth信息文件

使其内容为:

[root@jason network-scripts]# more ifcfg-eth0

# Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet

DEVICE=eth0

BOOTPROTO=none

ONBOOT=yes

TYPE=Ethernet

MASTER=bond0

slave=yes

[root@jason network-scripts]# more ifcfg-eth1

# Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet

DEVICE=eth1

BOOTPROTO=none

ONBOOT=yes

TYPE=Ethernet

MASTER=bond0

slave=yes

[root@jason network-scripts]#

三、编辑/etc/modprobe.conf加入下面两行

[root@jason network-scripts]# vi /etc/modprobe.conf

alias bond0 bonding

options bond0 miimon=100 mode=1

说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 

mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 

mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. 

bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

加入后我的modprobe.conf内容为:

[root@jason network-scripts]# more /etc/modprobe.conf

alias eth0 bnx2

alias eth1 bnx2

alias scsi_hostadapter aacraid

alias scsi_hostadapter1 ata_piix

alias peth0 bnx2

alias bond0 bonding

options bond0 miimon=100 mode=1

四、编辑/etc/rc.d/rc.local文件,加入

ifenslave bond0 eth0 eth1

重新启动后,负载均衡就能正常工作了,可以用ifconfig查看具体信息

[root@jason network-scripts]# ifconfig

bond0 Link encap:Ethernet HWaddr 00:1A:64:6A:55:98

inet addr:10.0.0.3 Bcast:10.0.0.255 Mask:255.255.255.0

inet6 addr: fe80::21a:64ff:fe6a:5598/64 Scope:Link

UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1

RX packets:985369 errors:0 dropped:0 overruns:0 frame:0

TX packets:804306 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:148943796 (142.0 MiB) TX bytes:2097755332 (1.9 GiB)

eth0 Link encap:Ethernet HWaddr 00:1A:64:6A:55:98

inet6 addr: fe80::21a:64ff:fe6a:5598/64 Scope:Link

UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:984133 errors:0 dropped:0 overruns:0 frame:0

TX packets:804292 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:148805154 (141.9 MiB) TX bytes:2097751381 (1.9 GiB)

eth1 Link encap:Ethernet HWaddr 00:1A:64:6A:55:98

inet6 addr: fe80::21a:64ff:fe6a:5598/64 Scope:Link

UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:1236 errors:0 dropped:0 overruns:0 frame:0

TX packets:16 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:138642 (135.3 KiB) TX bytes:4275 (4.1 KiB)

Interrupt:16 Memory:ca000000-ca011100

通过查看bond0的工作状态查询能详细的掌握bonding的工作状态 

[root@redflag bonding]# cat /proc/net/bonding/bond0 

bonding.c:v2.4.1 (September 15, 2003) 

Bonding Mode: load balancing (round-robin) 

MII Status: up 

MII Polling Interval (ms): 0 

Up Delay (ms): 0 

Down Delay (ms): 0 

Multicast Mode: all slaves 

Slave Interface: eth1 

MII Status: up 

Link Failure Count: 0 

Permanent HW addr: 00:0e:7f:25:d9:8a 

Slave Interface: eth0 

MII Status: up 

Link Failure Count: 0 

Permanent HW addr: 00:0e:7f:25:d9:8b 

以下是网上找的文档

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。 

说了半天理论,其实配置很简单,一共四个步骤: 

实验的操作系统是Redhat Linux Enterprise 3.0 

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片。

1.编辑虚拟网络接口配置文件,指定网卡IP 

vi /etc/sysconfig/ network-scripts/ ifcfg-bond0 

[root@redflag root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 

2 #vi ifcfg-bond0 

将第一行改成 DEVICE=bond0 

# cat ifcfg-bond0 

DEVICE=bond0 

BOOTPROTO=static 

IPADDR=172.31.0.13 

NETMASK=255.255.252.0 

BROADCAST=172.31.3.254 

ONBOOT=yes 

TYPE=Ethernet 

这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 

[root@redflag network-scripts]# cat ifcfg-eth0 

DEVICE=eth0

USERCTL=no

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0

SLAVE=yes

[root@redflag network-scripts]# cat ifcfg-eth1 

DEVICE=eth1

USERCTL=no

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0

SLAVE=yes

3 # vi /etc/modules.conf 

编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0 

加入下列两行 

alias bond0 bonding 

options bond0 miimon=100 mode=1 

说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 

mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 

mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. 

bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

4 # vi /etc/rc.d/rc.local 

加入两行 

ifenslave bond0 eth0 eth1 

route add -net 172.31.3.254 netmask 255.255.255.0 bond0 

route add -net 192.168.228.0 netmask 255.255.255.0 gw 192.168.228.153 dev eth0

#service network restart

到这时已经配置完毕重新启动机器. 

重启会看见以下信息就表示配置成功了 

……………. 

Bringing up interface bond0 OK 

Bringing up interface eth0 OK 

Bringing up interface eth1 OK 

……………. 

下面我们讨论以下mode分别为0,1时的情况 

mode=1工作在主备模式下,这时eth1作为备份网卡是no arp的 

[root@redflag network-scripts]# ifconfig 验证网卡的配置信息 

bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 

RX packets:18495 errors:0 dropped:0 overruns:0 frame:0 

TX packets:480 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:0 

RX bytes:1587253 (1.5 Mb) TX bytes:89642 (87.5 Kb) 

eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 

RX packets:9572 errors:0 dropped:0 overruns:0 frame:0 

TX packets:480 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:1000 

RX bytes:833514 (813.9 Kb) TX bytes:89642 (87.5 Kb) 

Interrupt:11 

eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING NOARP SLAVE MULTICAST MTU:1500 Metric:1 

RX packets:8923 errors:0 dropped:0 overruns:0 frame:0 

TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:1000 

RX bytes:753739 (736.0 Kb) TX bytes:0 (0.0 b) 

Interrupt:15 

那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能. 

在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息 

[root@redflag root]# ifconfig 

bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 

RX packets:2817 errors:0 dropped:0 overruns:0 frame:0 

TX packets:95 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:0 

RX bytes:226957 (221.6 Kb) TX bytes:15266 (14.9 Kb) 

eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 

RX packets:1406 errors:0 dropped:0 overruns:0 frame:0 

TX packets:48 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:1000 

RX bytes:113967 (111.2 Kb) TX bytes:7268 (7.0 Kb) 

Interrupt:11 

eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B 

inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 

UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 

RX packets:1411 errors:0 dropped:0 overruns:0 frame:0 

TX packets:47 errors:0 dropped:0 overruns:0 carrier:0 

collisions:0 txqueuelen:1000 

RX bytes:112990 (110.3 Kb) TX bytes:7998 (7.8 Kb) 

Interrupt:15 

在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用. 

通过查看bond0的工作状态查询能详细的掌握bonding的工作状态 

[root@redflag bonding]# cat /proc/net/bonding/bond0 

bonding.c:v2.4.1 (September 15, 2003) 

Bonding Mode: load balancing (round-robin) 

MII Status: up 

MII Polling Interval (ms): 0 

Up Delay (ms): 0 

Down Delay (ms): 0 

Multicast Mode: all slaves 

Slave Interface: eth1 

MII Status: up 

Link Failure Count: 0 

Permanent HW addr: 00:0e:7f:25:d9:8a 

Slave Interface: eth0 

MII Status: up 

Link Failure Count: 0 

Permanent HW addr: 00:0e:7f:25:d9:8b 

Linux下通过网卡邦定技术既增加了服务器的可靠性,又增加了可用网络带宽,为用户提供不间断的关键服务。用以上方法均在redhat的多个版本测试成功,而且效果良好.心动不如行动,赶快一试吧!

最近碰到有问4块网卡如何配置2个bond网卡,测试了一下,配置方法略微有点不 

同,主要是modprobe.conf里的配置:

1、ifcfg-bondX的配置和单个bond的配置没有区别;

2、修改modprobe.conf有2种修改方法:

a)当2个或者多个bond网卡的所有参数(即bonding模块的参数,如mode、miimon 

等)都相同时,加载bonding模块时设置 max_bonds参数即可。如max_bonds=2时, 

加载bonding驱动之后可以创建2个bond网卡bond0,bond1,修改后的 

modprobe.conf和下面的情形类似:

alias bond0 bonding

alias bond1 bonding

options bond0 miimon=100 mode=1 max_bonds=2

b)当2个或者多个bond网卡的参数(即bonding模块的参数,如mode、miimon等)不 

同时,需要在加载bonding模块时修改模块的名称(文档中的说法是linux的模块加 

载系统要求系统加载的模块甚至相同模块的不同实例都需要有一个唯一的命名), 

修改后的modprobe.conf和下面的情形类似:

alias bond0 bonding

options bond0 -o bond0 miimon=100 mode=0

alias bond1 bonding

options bond1 -o bond1 miimon=150 mode=1

(说明:使用 -o 选项在加载模块对模块进行重命名)

目前我只在DC5SP2上测试通过,其它版本并没有测试,内核的版本不同系统对 

bonding模块的支持可能也有不同。

详细的文档参见内核文档/usr/src/linux-x.x.x- 

xx.x/Documentation/networking/bonding.txt。

上午测试的时候修改modprobe.conf之后只是重启了network服务,所以当时以为第 

二种方法也是生效了的。不过实际上,重启network 服务时,并没有卸载bonding 

模块。当手动卸载bonding模块或者系统重启之后,网络服务启动的时候会报错, 

说-o不是有效的选项。

重新看了一下文档,里面也提到了这个问题,所以modprobe.conf的修改还需要调 

整一下,不再使用alias,options的格式,而使用下面的格式:

install bond0 /sbin/modprobe –ignore-install bonding -o bond0 

miimon=100 mode=0

install bond1 /sbin/modprobe –ignore-install bonding -o bond1 

miimon=100 mode=1

我也稍微修改了一下原来配置bond的脚本,基本可以用了。不过感觉我改完之后脚 

本已经有点繁琐了,大家看一下。

vSphere虚拟机快照限制

快照可能会影响虚拟机性能,且不支持某些磁盘类型或使用总线共享配置的虚拟机。快照作为短期解决方案用于捕获时间点虚拟机状况很有用,但不适用于长期虚拟机备份。
VMware 不支持对裸磁盘、RDM 物理模式磁盘或在客户机中使用 iSCSI 启动器的客户机操作系统的快照。
在执行快照之前必须关闭具有独立磁盘的虚拟机的电源。不支持具有独立磁盘的已打开电源或已挂起的虚拟机的快照。
PCI vSphere Direct Path I/O 设备不支持快照。
VMware 不支持为总线共享配置的虚拟机的快照。如果需要使用总线共享,则作为备用解决方案,请考虑在客户机操作系统中运行备份软件。如果虚拟机当前具有快照,并阻止您配置总线共享,请删除(整合)这些快照。
快照提供备份解决方案可以使用的磁盘的时间点映像,但快照不是备份和恢复的可靠方法。如果包含虚拟机的文件丢失,则其快照文件也丢失。另外,大量快照将难于管理,占用大量磁盘空间,并且在出现硬件故障时不受保护。
快照可能会对虚拟机的性能产生负面影响。性能降低基于快照或快照树保持原位的时间、树的深度以及执行快照后虚拟机及其客户机操作系统发生更改的程度。另外,还可能会看到打开虚拟机电源所花费的时间变长。不要永久从快照运行生产虚拟机。
如果虚拟机具有的虚拟硬盘容量大于 2TB,则完成快照操作将远远需要更加长的时间。