openfiler安装并应用
2020-03-27 10:59:23 Author: mp.weixin.qq.com(查看原文) 阅读量:235 收藏


今天教给大家如何安装openfiler存储

其实前面的安装和centos差不多,只要安装过centos的朋友都会安装,主要是教给大家如何配置

登录Openfiler网页管理界面

打开IE浏览器,访问Openfiler网页管理界面地址:

无需理会IE提示的此网站的安全证书有问题,点击继续浏览此网站(不推荐)。

继续打开Openfiler网页管理界面,打开网页的过程会有点久,需等待一会。

打开Openfiler Storage Control Center网页,显示Openfiler登录界面。

在Username和Password处,输入Openfiler系统默认的初始密码 (用户名:openfiler,密码:password),并点击Log In进行登录。

登录成功后,进入了Openfiler网页管理界面。

在管理界面中,共有8大配置页面,分别是:Status、System、Volumes、Cluster、Quota、Shares、Services、Accounts。

登录后,默认打开的是Status页面,显示了5方面的系统状态信息,分别是:System Vital、Network Usage、Hardware Information、Memory Usage、Mounted Filesystems。

Openfiler配置规划

要满足vSphere实验所需的Openfiler iSCSI存储系统,其实并不需要像实验环境规划中所设计的那样复杂。我只是希望在满足实验所需基础存储环境的前提下,可以学习更多关于Openfiler系统实用功能的配置。

根据实验环境规划,我们需要完成以下Openfiler的配置内容

1、在第1块硬盘中安装Openfiler系统,其中系统自身将占用10GB的空间,剩余的空间用来划分LVM。我们可以学会如何处理Openfiler系统所在硬盘的剩余空间无法直接创建LVM奇怪问题。

2、使用第1块硬盘的剩余空间和第2块硬盘的全部空间创建的LVM,组合创建1个Volume。

3、使用第3块和第4块硬盘的全部空间创建1个RIAD 0卷,并创建1个存储Volume。

4、将第1块和第2块网卡、第3块和第4块网卡进行多网卡绑定,分别创建1个bond0和bond1多网卡绑定的网络接口,以实现网络冗余。

配置Openfiler iSCSI存储5.1创建Physical Volume

打开Volumes页面,此时在Volume Group Management下方没有任何VG卷组。

点击右侧Volumes Section处的Block Devices栏。

打开Block Device Management页面,在磁盘列表中,可以看到4块硬盘,它们的Type类型为SCSI硬盘,其中第1块硬盘 /dev/sda 已有3个Partitions分区 (安装Openfiler时,安装程序自动创建的),其它3块硬盘 /dev/sdb、/dev/sdc、/dev/sdd 均没有分区。

在Edit Disk下方点击 /dev/sda,对第1块硬盘的分区进行编辑。

打开Edit partition in /dev/sda页面,可以看到当前硬盘详细的分区列表和空间分布图。

在Create a partition in /dev/sda区域中,列出当前磁盘剩余空间的Mode (模式)、Startingcylinder (起始磁柱)、Ending cylinder(结束磁柱)、Space (空间) 信息。

  

在创建分区一栏中,将Mode选择为Primary,将PartitionType选择为Physical Volume,在Startingcylinder处输入1300,在Endingcylinder处保留默认值266305。

设置完成后,点击Create,创建PV分区。

创建完成后,在Edit partition in /dev/sda列表中,可以看到一个新分区/dev/sda4。

同时,我们可以看到 /dev/sda4 分区的Starting cylinder与Ending cylinder值已被自动调整,与创建PV分区手动输入的不相同。

在空间分布图中,可以看到保留了剩余5%空间,这个空间是无法使用的。

如果刚才的PV分区创建操作出现错误时,可以点击Delete删除分区,并重新进行操作。

点击Back to the list of physical storage devices,返回上一页。

   

回到Block Device Management页面,在磁盘列表中,可以看到第1块硬盘 /dev/sda 分区数量由原来的3变成了4。

接下来,我们要继续对第2块硬盘创建PV分区。

在Edit Disk下方点击 /dev/sdb,对第2块硬盘的分区进行编辑。

   

打开Edit partition in /dev/sdb页面,可以看到当前硬盘没有分区信息。

在Create a partition in /dev/sdb区域中,在创建分区一栏中,将Mode选择为Primary,将Partition Type选择为Physical Volume,在Starting cylinder和Ending cylinder处保留默认值,然后点击Create,创建PV分区。。

创建完成后,在Edit partition in /dev/sdb列表中,可以看到一个新分区/dev/sdb1。

在空间分布图中,可以看到自动保留了5%的剩余空间,这个空间同样是无法使用的。

点击Back to the list of physical storage devices,返回上一页。

5.2创建RAID array member

回到Block Device Management页面,在磁盘列表中,可以看到第1块硬盘 /dev/sdb 分区数量由原来的0变成了1。

接下来,我们要继续对第3块和第4块硬盘创建RAID阵列成员,因为第3块和第4块硬盘要组建成RAID 0,所有创建分区时存在小小的不同。

在Edit Disk下方点击 /dev/sdc,对第3块硬盘的分区进行编辑。

打开Edit partition in /dev/sdc页面,可以看到当前硬盘没有分区信息。

在Create a partition in /dev/sdc区域中,在创建分区一栏中,将Mode选择为Primary,将Partition Type选择为RAID array member (此项与之前操作不同),在Starting cylinder和Ending cylinder处保留默认值,然后点击Create,创建RAID阵列成员。。

创建完成后,在Edit partition in /dev/sdc列表中,可以看到一个新分区/dev/sdc1,它的Type类型是Linux RAIDArray Member。

在空间分布图中,可以看到自动保留了5%的剩余空间,这个空间同样是无法使用的。

点击Back to the list of physical storage devices,返回上一页。

用同样的操作方法,完成第3块硬盘 /dev/sdc 的RAID阵列成员的创建。

所有分区创建操作完成,最终结果界面。

创建Software RAID

现在我们将第3块硬盘 /dev/sdc1 和第4块硬盘 /dev/sdd1,组建成一个Software RAID 0。

在Block Device Management页面,点击右侧VolumesSection处的Software RAID栏。

打开Software RAID Management页面,当前没有Software RAID存在。

在Create a new RAID array区域中,将Select RAIDarray type选择为RAID-0 (striped),在SelectRAID devices to add列表中,勾选 /dev/sdc1 和 /dev/sdd1。

Openfiler还支持其它类型的RAID,分别是:RAID-1 (mirrored)、RAID-5 (parity)、RAID-6 (extra-parity)、RAID-10 (mirrored striped)。

点击Add array,创建新的RAID array。

SoftwareRAID 0 创建成功,驱动器号为 /dev/md0。

5.4创建Volume Groups

现在我们将第1块硬盘 /dev/sda4 和第2块硬盘 /dev/sdb1 可用空间,组建成一个Volume Groups,以合并成一个的完整可用空间。

在Software RAID Management页面, 点击右侧VolumesSection处的Volume Groups栏。

打开Volume Group Management页面,当前没有Volume Groups存在。

在Create a new volume group区域中,在Volume groupname处,输入卷组名称VG_1 2,在Selectphysical volumes to add列中,勾选 /dev/sda4 和 /dev/sdb1。

点击Add volume group,创建新的VG。

第一个Volume Group创建成功,可以看到卷组VG_1 2的详细信息。

再用Software RAID 0的可用空间,创建一个Volume Group。

在Create a new volume group区域中,在Volume groupname处,输入卷组名称VG_RAID_0,在Selectphysical volumes to add列中,勾选 /dev/md0 。

点击Add volume group,创建新的VG。

第二个Volume Group创建成功,可以看到卷组VG_RAID_0的详细信息。

在Volume Group Management页面,点击右侧VolumesSection处的Add Volume栏。

5.5创建LUN Volume

打开Add Volume页面,创建存储Volume。

在Select Volume Group列表中,选择一个VG (如:VG_1 2),点击Change。

在Block storage statistics for volume group "vg_1 2" 区域,可以查看VG的空间使用情况。

在Create a volume in "vg_1 2" 区域中,在VolumeName、Volume Description中输入卷名和描述。在Required Space (MB) 中输入VG剩余空间的最大值,在Filesystem / Volume type列表中,选择block(iSCSI,FC,etc)。

配置完成后,点击Create创建。

创建成功后,网页自动转至Manage Volumes页面。

在Volumes in volume group "vg_1 2"区域中,可以查看到Volume卷信息。

在Manage Volumes页面,点击右侧Volumes Section处的Add Volume栏。

在Create a volume in "vg_raid_0"区域中,在Volume Name、Volume Description中输入卷名和描述。在Required Space (MB) 中输入VG剩余空间的最大值,在Filesystem / Volume type列表中,选择block(iSCSI,FC,etc)。

配置完成后,点击Create创建。

创建成功后,网页自动转至Manage Volumes页面。

在Volumes in volume group "vg_raid_0"区域中,可以查看到Volume卷信息。

打开Volume Group Management页面,可以看到刚刚创建好的两个VolumeGroup。

在Network Interface Configuration区域中,点击Createbonded interface

5.6配置网络访问控制ACL

在配置iSCSI存储服务时,需要配置Network ACL,以授权远程ESXi主机具有访问iSCSI网络存储的权限。

我们的实验环境规划中,所有主机的IP地址都在192.168.1.0同一网段,因此只需要对网段进行ACL配置。

在Network Access Configuration区域中,在Name处输入名称vSphere-iSCSI,在Network/Host处输入网段192.168.1.0,在Netmask处选择255.255.255.0,在Type处选择Share,点击Update。

配置Openfiler iSCSI 目标6.1启动iSCSI Target服务

打开Services页面,在Manage Services区域中,显示当前系统服务的运行状态。

在iSCSI Target服务一栏处,点击Enable设置开机启动,点击Start即时启动服务。

iSCSITarget服务已经启动。

设置共享

测试

看吧  大家可以在本地访问到刚才所创建的盘了,这就是类似一个本地云盘的效果,可以存放很多东西,还有备份什么的,比单纯的存储好多了。

有兴趣的可以试一下。


文章来源: http://mp.weixin.qq.com/s?__biz=MzAxMjE3ODU3MQ==&mid=2650460370&idx=3&sn=686373231a6dd537f3773e8e3f5e3341&chksm=83bbb536b4cc3c204262337e90652fa3f07f09dd39498cd8bb0847cac33bbed48a6c9491b901#rd
如有侵权请联系:admin#unsafe.sh