Ubuntu 12.04 에서 openswan 을 사용하여 l2tp 서버를 설치한 글은 - 우분투 L2TP VPN 설치/설정법



요즘에 IKEv2 라는거 사용을 권장하는 것 같긴 하지만, 일단 귀찮으니 그냥 L2TP 를 사용해보도록 하자.


1. IPSEC

Ubuntu 16.04 부터는 openswan 이 기본 repository 에 제공되지 않는다. 대체품으로 strongswan 을 설치하자.

strongswan 을 사용하면서 설정이 조금 다른데, 이걸 제외하면 이전 글과 동일하다.


# apt-get install strongswan

# vi /etc/ipsec.conf


# vi /etc/ipsec.secrets


# service ipsec restart


2. xl2tpd

이전 글과 똑같다. 귀찮으니 딱 필요한 부분만 적겠음.


# apt-get install xl2tpd ppp

# vi /etc/xl2tpd/xl2tpd.conf


# vi /etc/ppp/options.xl2tpd


# vi /etc/ppp/chap-secrets


# service xl2tpd restart


3. iptables

# iptables -A FORWARD -s 10.7.0.0/24 -j ACCEPT

# iptables -t nat -A POSTROUTING -s 10.7.0.0/24 -o eth0 -j MASQUERADE


$ echo "net.ipv4.ip_forward = 1" | sudo tee -a /etc/sysctl.conf




* 안되면 재부팅을 해보자. 아마 IPSEC 설치 후 재부팅을 해야하는 것으로 안다.(아닐수도)

  1. 김충열 2020.06.12 20:32

    리눅스 기반 IPSec 개발 경력자를 찾던 중 방문하게 되었습니다.
    StrongSwan기반 개발을 당사와 할 수 있으시다면
    연락주세요.

    chung10@jcomm.co.kr

    • BlogIcon iolate 2020.06.13 18:56 신고

      IPSec 개발을 해본적은 없습니다.
      방문 감사합니다 :)


쓸일이 있어서... 응시를 했다. (무쓸모가 될 가능성이 높지만)


LPIC-1 은 101-400, 102-400 두개의 시험을 쳐서 통과하면 자격을 준다.

왜 아직 Certifications 에 아무것도 없는진 모르겠지만 시간이 지나면 넣어주겠지...

글 수정하는 동안에 Certificate 메일이 왔다.


시험당 60문제, 800점 만점에 500점 이상시 통과. 60문제인데 문제마다 배점이 다르다.

시험당 $170 였는데, 난 결제하니 한화로 20만 9천원 정도 나오더라.. 두개보면 42만원..ㅠㅠ


원래 리눅스를 쓰던 사람이라면 대부분의 문제의 답을 이미 알거나, 한번 보면 바로 알 정도의 난이도?

물론 주로 사용하는 배포판에 따라 좀 갈리긴 할 듯.


근데 그런거 상관없이 덤프에서 보기 순서 안바꾸고 나오니 암기만 잘하면 딸 수 있다... 그래서 더 돈이 아깝다..



시험 응시

1. lpi.org 에서 회원가입 및 LPI ID 를 발급받는다.

2. Pearson VUE 에서 시험 신청을 한다

1) 회원가입 및 로그인

2) For test taker

3) LPI 검색

4) LPI ID 입력

5) 원하는 시험장소 및 시험시간 선택 (시험 장소에 따라 가능일자 / 시간이 다르다)

6) 결제

3. 시험장소(보통 학원)에 응시하러 간다

1) 시험치러 왔다고 말한다

2) 신분증, 같은 이름의 카드(영문 이름 때문인 듯)가 필요

3) 서명하고 사진촬영

4) 컴터 앞에 앉아서 시험치고 끝


시험 시간은 응시 장소에 따라 꼭 정해진 시간을 지킬 필요는 없는 것 같다. 30분 일찍 갔는데 그냥 쳤음.



덤프

내가 구한 덤프는

- 2015년 4/8월자 덤프(101-400, 102-400). 85~120문제 정도로 구성

- 2012년 12월 28일자 덤프(117-101, 117-102). 50여문제를 한 Exam 으로 해서, 여러개 시험으로 구성. 70~110페이지


* 원래 117-101, 117-102 란 이름이였는데 각 101-400, 102-400 으로 바뀌었다.


인데, 첫번째꺼만 봐도 될 듯. 두번째껀 그냥 앞쪽 시험 2개 정도만 훑어보고 들어갔다.



101-400

커널과 관련된 부분은 그냥 외웠고, 그걸 제하면 한번씩 해봐서 알거나, 새로운 명령어 하나 배운다는 기분으로 공부했다.

물론 덤프에 나오는 문제 위주로.


117-101 덤프에서도 몇문제 나왔는데, 뭐 몰라도 통과할 수 있거나 안봤어도 맞출 수 있었을 듯

8분만에 풀고 나왔다. 너무 일찍 나왔다고 다음 시험은 그러지 말라더라.


+ 1월 9일 오늘 아는 사람이 응시하고 왔는데, 101-400 덤프에서 1문제 정도 나오고 다 달라서 당황하셨다고 한다. 다행히 500/500 으로 통과하셨다지만... 102-400 은 그대로 나왔다고 하네... 왜지?;;


102-400

xwindows, 프린터(cups) 같은 것들이 나오는데 난 거의 안써본 것들이라 외웠다.

쉘스크립트나 네트워크 쪽 문제들은 그냥저냥...

뜬금없이 SQL 쿼리가 나오는데(리눅스 시험에서 대체 왜?) 뭐... 어렵진 않다.


전체적으로 101-400 에 비하면 덤프를 처음 봤을때 답을 모르겠는 문제들이 많았음.

근데 어차피 덤프보고 공부/외우면 된다. 102-400 덤프에서 다 나온 것 같다.


102-400 덤프에 문제 오류가 3~4개 정도 있었던 것 같은데.. 그냥 스스로 고칠 수 있거나 틀려도 탈락 안한다.

117-102 덤프는 설명이 다 달려있어서 좋더라.


마찬가지로 8분만에 다 풀었는데, 앞시험에서 나오고 나니 30분 정도는 앉아있어 달라고 하셔서 나머지 20분을 멍하게 시간때우다가 나왔다.



총평

시험치기 전날 2~3시간 정도 보면 매우 쉽고 무난하게 통과한다.

리눅스 시스템을 처음 접한 사람이라면 잘 모르겠다.


뭐 틀렸는지 안 알려준다. 궁금하다.


  1. 2017.05.02 00:42

    비밀댓글입니다

    • BlogIcon iolate 2017.05.02 15:11 신고

      0. 저도 컴공이 아닌 타학부생입니다. IT 선배라고 불리긴 힘들 것 같네요ㅎㅎ

      1. LPI 사이트에 시험범위대로 내용이 기술되어 있었던 것으로 기억합니다. 그걸 공부하시면 되겠네요.

      2. 리눅스를 공부한다고들 많이하는데, 리눅스도 윈도우, 맥과 같은 OS의 한 종류입니다. 아예 컴퓨터를 처음 접하는 사람이 아니고서야 윈도우를 공부한다고 책을 사거나 학원에 등록하지는 않죠?
      써보면서 익숙해지시면 됩니다. 그냥 윈도우 쓰는데 명령어가 조금 다를 뿐이에요. CLI 환경을 한번도 써본적이 없다면 GUI 버전부터 해서 익숙해지셔도 좋구요

      3. 덤프는 기본은 유로 구매지만 구글에 검색하면 돌아다니기도 합니다. 전 구글 검색으로 받았었네요. 다만 전 덤프에서 90% 이상이 나왔는데, 거의 같은 시기에 치른 제 지인은 102-400 은 30% 정도 밖에 안나와서 나머지는 본인 지식으로 치뤄서 통과했다고 하네요.

교내망에 있는 서버 하나가 접근이 꼬여서 원인을 찾다가 기록함.


우선 서버들의 네트워크 구성


메인서버 - Windows Server 2012 R2    - 교내망(10.x.x.5), 가상 스위치(192.168.137.1, host)

서버 A - Ubuntu 14.04                  - 교내망(10.x.x.6), 가상 스위치(192.168.137.6), 도커

서버 B - Ubuntu 14.04                  - 교내망(10.x.x.7), 가상 스위치(192.168.137.7)

서버 C - CentOS                            - 가상 스위치(192.168.137.2)


교내 다른 장비에서 메인서버, 서버 B 로는 교내망 주소로 바로 접근이 되는데,

서버 A 는 교내망 주소를 사용해도 서버 B 를 거쳐야만 접속이 되었다.

똑같은 교내망 IP 인데 말이지..


원인을 찾아보다가 서버 A의 outbound ip 가 메인서버의 ip 로 찍히는 것을 발견,

기본 라우터 설정을 바꿔주면 왠지 해결될 것 같은 느낌이 왔다.


서버 A:~$ ip route list

default via 192.168.137.1 dev eth1 

10.x.x.0/23 dev eth0  proto kernel  scope link  src 10.x.x.6 

172.17.0.0/16 dev docker0  proto kernel  scope link  src 172.17.0.1 

192.168.137.0/24 dev eth1  proto kernel  scope link  src 192.168.137.6

서버 B:~$ ip route list

default via 10.x.x.1 dev eth0 

10.x.x.0/23 dev eth0  proto kernel  scope link  src 10.x.x.7 

192.168.137.0/24 dev eth1  proto kernel  scope link  src 192.168.137.7 


이유는 모르겠지만 서버 A의 기본 라우터가 eth1 로 되어있다. 바꿔주자.


서버 A:~$ sudo ip route change to default dev eth0 via 10.x.x.1

서버 A:~$ ip route list

default via 10.x.x.1 dev eth0 

10.x.x.0/23 dev eth0  proto kernel  scope link  src 10.x.x.6 

172.17.0.0/16 dev docker0  proto kernel  scope link  src 172.17.0.1 

192.168.137.0/24 dev eth1  proto kernel  scope link  src 192.168.137.6



via 뒤의 아이피는 eth0 의 gateway 주소를 적어주면 된다.


이후 ssh 접속이 잘됨을 확인.

재부팅해도 유지된다.


왜 바뀌었는지 모르니 다음에 또 바뀔 가능성이 있을 수 있지만.... 일단 해결!

NFS 설치

# yum install nfs-utils


NFS 서버 설정

# vi /etc/exports

[Path]    [Client IP]([Options])


Options

ro - 읽기 전용 (기본값)

rw - 읽기/쓰기 모드

root_squash - Client의 root를 익명 사용자(nobody)로 매핑 (기본값)

no_root_squash - Client의 root를 NFS 서버의 root로 매핑

all_squash - 모든 사용자를 익명 사용자(nobody)로 매핑

sync - Client와 NFS 서버간 동기적 통신 모드 (기본값, 안전성 향상)

async - Client와 NFS 서버간 비동기 통신 모드 (속도 향상)

secure - 마운트 요청 시 포트를 1024 이하로 할당 허용 (기본값, 1024 이하 포트는 root만 설정 가능)

insecure - 마운트 요청 시 1024 포트 이상도 할당 허용

anonuid=<uid>

anongid=<gid>



설정 후

# systemctl restart nfs-server


재부팅 후에도 자동으로 실행되게끔
# systemctl enable nfs-server
도 해준다.


* 서버에서

# showmount -e 127.0.0.1

을 실행해보고,

clnt_create: RPC: Port mapper failure - Unable to receive: errno 111 (Connection refused)

에러가 나온다면,
# service rpcbind start
을 해주자.



클라이언트에서

$ showmount -e <Server IP>

로 서버의 exports 리스트를 확인할 수 있다.


테스트 마운트는

# mount -t nfs <Server IP>:<Server Path> <Client Path>

로 가능.


/etc/fstab 설정도 가능하다.

<Server IP>:<Server Path> <Client Path> nfs hard,intr 0 0


이때 옵션(예시에서 hard,intr)은 

19.4. Common NFS Mount Options

여기서 찾아보자.



참고

NFS 서버 구성 - http://blog.helperchoi.com/76

http://unix.stackexchange.com/questions/64915/nfs-connection-refused

http://www.unixmen.com/setting-nfs-server-client-centos-7/


/etc/sysconfig/network-scripts/ifcfg-eth?


파일을 수정하면 된다.


* DHCP 설정

BOOTPROTO=dhcp


* STATIC 설정

BOOTPROTO=none

IPADDR = "192.168.137.2"

NETMASK = "255.255.255.0"

GATEWAY = "192.168.137.1"

DNS1 = "192.168.137.1"


** 변경 후 네트워크 재시작

# systemctl restart NetworkManager

# systemctl restart network



재부팅시 네트워크 어댑터가 자동으로 시작되지 않는다면,

ONBOOT=no

ONBOOT=yes 로 바꿔준다.


수동으로는

시작: # ifup eth?

종료: # ifdown eth?



참고

CentOS 7.0에서 네트워크 설정 - http://manseok.blogspot.kr/2014/08/centos-70.html

CentOS - eth0 자동 활성화 시키기 - http://avisynth.tistory.com/10

CentOS7 에서 XFS 로 포맷을 진행하려 하는데, 2TB 까지밖에 파티션이 생성안되는 문제가 있었다.


대충 찾아보니 fdisk가 하위호환때문에 2TiB 로 고정한다는 듯.

수정된 fdisk 를 사용하면 된다고 한다.


딴걸 설치하기는 귀찮고...

http://unix.stackexchange.com/questions/29078/how-to-partition-22tb-disk

글에서 주는 해결책을 옮기면서 조금 수정해봄.



1. xfs 설치 확인

mkfs.xfs 를 그냥 실행하여 설치가 되어있는지 확인해본다. 없다면 설치.

# yum install xfsprogs


2. 디스크 확인

# fdisk -l


나의 경우(그리고 글에서 설명하는 경우)는 /dev/sdb 이다.

본인 상황에 맞게 아래 예시에서 알아서 바꾸자.


3. 파티션 만들기

# parted /dev/sdb mklabel gpt

# parted /dev/sdb mkpart primary xfs 1 -1


나의 경우 두번째 명령어가 실행이 안되는 것 같았는데....


이 과정을 스킵해도 된다고 한다.

스킵할 경우 아래 예시에서 /dev/sdb1 대신에 /dev/sdb 를 사용할 것.


스킵할 경우 sector alignment 문제(나도 뭔지 모름)가 없는 대신 윈도우나 맥 등에 연결할 경우 매번 포맷하라는 메세지가 뜬다고 한다.



4. 파티션 포맷

# mkfs.xfs -f -L somelabel /dev/sdb1


라벨(L 옵션)은 fstab 에 기록할때 대신 사용될 수 있는 것 같다.


5. 디렉토리 생성 & 테스트 마운트

# mkdir /storage

# mount -t xfs /dev/sdb1 /storage


마운트가 되었다면

# df -Th /storage

로 확인해보자!


6. fstab 수정

# vi /etc/fstab

파일 가장 하단에

LABEL=somelabel    /storage        xfs    defaults    0 0

추가


7. mount / umount

이후에는

# mount /storage

만 입력해도 마운트할 수 있다.


마운트 해제는

# umount /storage



참고

http://unix.stackexchange.com/questions/29078/how-to-partition-22tb-disk


일반적인 포맷은 여기!

http://ask.xmodulo.com/create-mount-xfs-file-system-linux.html


부팅디스크 레이드 구성은 부팅과정에서 Lifecycle Controller 를 이용했었는데,

데이터 디스크는 iDRAC를 이용해서 구성해봤다.

큰 차이는 없는 듯..


RAID 컨트롤러는 PERC H730P MINI



6TB * 12개를 RAID6 로 구성하였다.


데이터의 보존이 중요하진 않았지만, 깨져버리면 시간을 엄청 날릴게 분명하니.. 어떤 방식을 사용할지 많이 고민했지만..

RAID1+0 은 하드가 너무 아깝고, RAID5 는 하드 용량이 커지면서 쓸모가 없는 경우가 많아졌다고 하고,

하드 개별로 따로 쓰자니 그것대로 애매해서 결국 모두 RAID6 로 한번에 묶는 것으로 결정.




iDRAC에 들어가서 화살표 순서대로 진행한다.

나의 경우 남은 하드 모두를 RAID 용으로 구성할 예정이지만 아니라면 개별 하드를 설정해주자.





Job Queue 에 등록되어 확인할 수 있다.

100%가 될때까지 기다리자.



이번엔 가상디스크 생성.

RAID Layout 을 선택하고, 하단에서 RAID구성에 사용할 하드디스크를 선택해주면 된다.


Capacity(용량) 같은 경우 자동으로 최댓값으로 설정이되는데, 

직접 입력하면 소숫점단위 때문인지 최대 용량을 초과했다며 진행이 안된다. 최댓값 그대로 쓸거라면 건드리지 말자.


그 외 옵션은 여기저기 보고 내가 임의로 설정하였다.



하단에서 Create Virtual Disk 선택.

어차피 재부팅이 필요하다고 하니 At Next Reboot 을 선택해주자.

Apply Now 해도 되는지는 아닌지는 잘 모름.



재부팅하면 자동으로 Lifecycle Controller로 진입하고, RAID 구성을 시작한다.

눈 깜짝할 사이에 지나감!




부팅이 완료되고 디스크 관리를 실행하면 이런 창이 뜬다.

초기화해주자.




RAID 구성 끝!


이제 포맷을 해야한다.

간단하지만... 굳이 스크린샷을 넣자면...









진짜 끝!

Docker 의 설치 및 간략 사용법 정리.

UBUNTU 14.04 64bit 에서 작업하였음.


1. docker 설치

$ sudo curl -fsSL https://get.docker.com/ | sh

# apt-key adv --keyserver hkp://p80.pool.sks-keyservers.net:80 --recv-keys 58118E89F3A912897C070ADBF76221572C52609D

# apt-add-repository 'deb https://apt.dockerproject.org/repo ubuntu-xenial main'

# apt-get update

# apt-get install docker-engine


2. (선택)현재 사용자를 docker 그룹에 추가

$ sudo usermod -aG docker $(whoami)


추가한 후엔 로그아웃하고 다시 들어와야, 정상적으로 작동한다.

추가하지 않을 경우 아래 모든 docker 커맨드를 root 권한(sudo)로 실행해야 함.


3. 이미지 받기

docker pull <이미지 이름>:<태그(보통 버전)>

형태로 받을 수 있다.


난 Ubuntu 14.04 를 설치할 예정이므로,

$ docker pull ubuntu:14.04


4. 이후엔 자유.


========================================================


= 명령어 정리 =


$ docker <command>

images: 이미지 목록 출력

ps: 컨테이너 목록 출력

start, stop, restart: 이름 그대로.

attach: 컨테이너 접속

Ctrl+D : 컨테이너 정지 후 빠져나오기

Ctrl+P, Q: 정지하지 않고 빠져나오기

exec: 컨테이너 안에 명령어 실행

rm: 컨테이너 삭제

rmi: 이미지 삭제


$ docker run -i -t --name test ubuntu:14.04 /bin/bash

ubuntu 이미지로 test 이름의 컨테이너를 만들고 bash 실행, 접속

태그를 생략할 경우 latest 이미지를 사용하게 되며, 없을 경우 다운로드 받는다.



참고

Install Docker - https://docs.docker.com/linux/step_one/

Docker 기본 사용법 - http://pyrasis.com/Docker/Docker-HOWTO

RAID 구성을 뒤늦게 내가 다시 하는 바람에 (Dell PowerEdge R730xd RAID 구성하기)

OS 도 재설치해야 했다.


RAID0 도 아니고, RAID1 으로 구성한건데 알아서 복사해주면 안되나... 싶지만.. 안되는 듯ㅠ


업체말로는 USB 설치디스크 제작 후 설치는 안된다고 하는데.. 확실하게는 모르겠고..

CD가 제품에 포함되어 있어서 그냥 외장 ODD 를 빌려서 진행하였다.


서버에 따라 ODD가 포함되어 있는 경우도 있다곤 하던데, 이 서버에는 없음.


참고로 부팅하기 전부터 OS 설치 디스크가 들어있는 ODD가 연결되어 있어야한다.


How to Install an Operating System on Dell PowerEdge Servers 라는 Dell 지원 문서도 있으니, 굳이 사진볼 필요없다 하는 사람은 빠르게 이걸 보자.




준비가 다 되었다면, RAID 구성했던 방식과 동일하게, Lifecycle Controller 로 진입한다.


* 나의 경우 정확한 원인은 모르겠지만 ODD 연결 후 이 화면 이후에 마음대로 재부팅되는 문제가 발생했었다.

ODD에 전원을 공급하는 USB 선이 따로 있었기에, 전력 문제라고 생각하고 ODD 전력선을 따로 연결해주니 문제가 해결되었는데, 이게 원인인지는 확실하지 않음.




OS Deployment 메뉴를 선택, Deploy OS 를 선택한다.





여기서 OS설치하면서 RAID 구성도 가능하다. 하지만 난 이미 RAID 구성을 따로 했으므로 패스!




Boot Mode 와 Secure Boot, 설치할 OS 종류를 선택.

사진에서는 Secure Boot 가 Disabled 인데, 나는 Enabled 로 설정했다.


부팅 디스크가 2TB(맞나?) 미만이면 BIOS 를 선택해도 상관없지만, Win8 이후 UEFI 가 기본이라는 말을 들어서 UEFI 로 진행!





정상적인 경우라면 1분 내외로 다음 단계로 진행된다. 5분 미만이라고 적혀있기도 하고.


그런데 나는 이 상태로 1시간 넘게 지속되었고, 결국 강종 후 재설치를 진행했었다..ㅠ 두번째 시도에서는 1분만에 통과!





Unattended Install 로 하면 어떻게 설치될지 궁금했지만, 난 그냥 Manual 로 했다.





이 후에 OS 이미지를 넣으라는 안내메시지와(부팅하기전에 넣어두라며..) OS의 Validation을 진행하고,

마지막 요약화면을 보여준다.


Finish 를 누르면 재부팅이 되며 설치가 진행된다.


아래쪽 안내메세지는, 윈도우 설치 화면으로 진입해야 하니 중간에 Press Any Key 라고 뜨면 아무키나 눌러달라는 안내.





위에서 Secure Boot를 Enabled 했다면, 재부팅 도중 이런 안내메세지를 볼 수 있다.

설정이 바뀌었다는 안내이므로 그냥 무시하면 된다.



위에서 요구했던 Press any key!

아무키나 눌러준다. 난 Spacebar!




엔터 눌러주고... 잠시 로딩을 기다리면...




따단!!




GUI 관리도구를 사용하고 싶다면, Core 버전 말고 아래 Standard 버전을 선택하자.


이 후로는 일반 Windows 설치와 다르지 않다.


파티션을 설정하고, 설치를 시작하고, 관리자 계정의 패스워드를 설정하면 완료!

패스워드 규칙은 정확하게는 모르겠으나 최소 영문+숫자+특수문자 조합을 사용해야 하는 것 같다.





끝~!


중간에 Composing OS Drivers 에서 안 넘어가던 문제와.. 조모임 및 기타 내 할일 한다고 띄엄띄엄 왔더니 재설치 시작 후 이화면 보는데에만 5시간이 걸렸다ㅠ



마지막으로,

iDRAC 등이 설정되어있지 않다면, 서버실에서 나오기 전에, 원격제어(RDP)를 설정해두도록 하자.


그리고!!

Hyper-V 를 설치할 경우 + 현재 사용하는 네트워크로 가상 네트워크를 만들거라면 Hyper-V 까지 설치하고 모니터와 키보드/마우스를 정리하자.

가상 네트워크 설정을 하면 설치 후 재부팅시 가상 드라이버로 인터넷이 연결되면서, 로컬에서 최초로 한번 로그인을 해줘야지 정상적으로 인터넷에 연결이 된다.


이걸 몰라서 원격에서 Hyper-V 설치 후 접속이 안되어서 모니터 들고 서버실에 다시 찾아감ㅠ

6TB 짜리 Data 하드들도 RAID 구성을 해야겠지만.. 일단 그건 나중일로 미뤄두고..


주OS 가 설치된 하드를 RAID1 으로 설정해보았다.

원래 업체측에서 해줄까 물었고, 그 용도로 300GB SAS가 2개달려있긴 했지만..

잠결에 받은 전화에 "그냥 제가 알아서 할게요 레이드 설정하지 말아주세요" 라고 해버렸지..


이거땜에 몇시간을 투자하긴 했지만 지금 생각해보면 잘한 결정인 것 같다.

원랜 RAID 를 안할까.. 도 고민해봤지만, 그러다 괜히 고장나면 미래의 내가 과거의 나를 죽이고 싶어지겠지....


----- 여기까지 잡솔이였고.. -----


RAID 구성은 하드웨어로 설치된 RAID 컨트롤러에 맡길 수도 있고, Windows 의 디스크 관리 메뉴에서 소프트웨어적으로 설정할 수도 있다.


난 OS 를 설치할 드라이브를 RAID 설정하려는거기도 하고, RAID 컨트롤러라고 따로 있으니 얘가 더 성능이 좋겠지?(잘모름)



iDRAC 설정을 아직 하지 못해서(해도 이건 안되나?) 직접 키보드/모니터를 연결해서 설정하였고, 그래서 폰카로 다 직접 찍었다..ㅎㅎ



우선 부팅과정 중 F10을 눌러서, Lifecycle Controller 로 진입한다.

보통 Ctrl+R 로 Configuration Utility 로 들어가라고 하던데, 저기서도 잘 된다.


대충 부팅 과정이 푸른 시작화면 -> 위 검은화면 -> 푸른 시작화면 이니까, 첫번째 푸른화면에서 메모리체크, 드라이버 체크 등을 할 동안 기다렸다가, 위 검은 화면이 나오면 F10 을 눌러준다.


잘 눌렀다면(?) 위 사진처럼 내가 선택한 메뉴가 표시된다.


(그리고 아래 문구를 읽었다면 알겠지만, 사실 이건 RAID 설정한 이후의 사진 촬영..)




정상적으로 메뉴에 진입하였다면 이런 형태의 화면이 나타나고, 키보드/마우스를 사용가능하다.

왼쪽 메뉴에서 잘 찾아가도 되지만, 가운데 3번째있는 Configure RAID 를 선택한다.



그 후에는.. 사실 사진을 안찍었다..ㅋㅋㅋ

Creating RAID Using Lifecycle Controller - Community

PDF 문서를 참고하도록 하자. p.9 이후 부터!


대충 말로 적자면

RAID Controller 선택 ->Controller 에 연결된 하드 중에서 RAID 구성에 사용할 하드 선택 -> RAID Level 선택 -> 

HDD / Virtual Disk 설정 -> 요약화면 -> 끝


중간에 HDD 설정에서 Physical Pool 이라는걸 선택하라고 하는데, 정확히 뭔지 모르겠어서 RAID 구성할 하드 2개 다 선택했다.

자세하게 뭔진 모르겠지만.. Hotspare 같은걸 위해 존재하는게 아닐까.. 싶기도 하고....




대충 찍어서 흔들렸네..

여튼 난 저렇게 나왔다.


Finish 하면 끝.

+ Recent posts