'Server'에 해당되는 글 8건

  1. 2020.07.15 VMware 3
  2. 2020.07.14 VMware 2 - vSphere
  3. 2020.07.14 VMware 1
  4. 2017.07.31 가상 컴퓨터 생성 초기 구성
  5. 2017.07.24 Network
  6. 2017.07.23 가상 하드 디스크
  7. 2017.02.07 2. Hyper-V
  8. 2017.02.07 1. 서버 가상화

1. 서버 플랫폼

VMware 서버 호환성 체크

Consolidation Ratio: 물리 호스트 당 그 호스트 위에서 동작하는 가상 머신 수의 비율.

CPU 코어 개수가 중요 요소로 사용 되지만, RAM 슬롯, PCIe 버스 수, 확장 슬롯 수 등도 고려되어야 함. 

 

2. 스토리지 아키텍처

DRS, HA, FT 같은 고급 기능에서 상당 부분이 공유 스토리지 아키텍처에 의존.

HBA와 스토리지 어레이의 호환성 검증도 필요.

고려사항

- 어떤 유형의 스토리지가 기존 스토리지나 네트워크 인프라와 잘 통합이 되는가

- 해당 스토리지에 대한 경험이나 전문 기술이 있는가

- 스토리지가 충분한 성능을 제공할 수 있는가

 

3. 네트워크 인프라 통합

사용할 NIC 수에 대한 결정

- ESXi의 관리 네트워크는 최소 하나의 NIC 필요, 여분으로 두번째 NIC 추가 권고.

- vMotion 은 NIC를 필요로 함.

- vSphere FT 기능 사용 시 NIC, 최소 1G, vCPU 개수에 따라 10G 권장

- iSCSI, NFS 용 NIC 최소 하나, 권고 2개

- VM들로부터 발생하는 트래픽 최소화, 별도 NIC

 

vCenter

ESXi 호스트와 각각의 VM들을 위한 중앙 집중식 관리 도구를 제공하는 윈도우 기반 어플리케이션

1) 제공 서비스

- ESXi 호스트와 VM 자원 관리

- 템플릿 관리, VM배포/관리

- 스케줄링된 작업, 통계/로그 관리, 알람/이벤트 관리

2) 설치 방법

- 윈도우 서버에 어플리케이션 설치

- 리눅스(SUSE) 기반의 가상 어플라이언스 방식

3) 필요성?

- 필수적 요소는 아니나

- vMotion, DRS, HA, 분산 스위치 같은 고급 기능 사용 시 필요. 필요

 

 

'Server > VMware 서버 가상화' 카테고리의 다른 글

VMware 2 - vSphere  (0) 2020.07.14
VMware 1  (0) 2020.07.14
Posted by jk.jeong
,

1. vSphere 기능

 

1) vSMP (Virtual Symetric Multi-Processing)

VM이 다수의 가상 프로세서 코어나 소켓을 가질 수 있게 해줌.

ESXi를 다수의 프로세서를 가진 서버에 설치할 수 있게 허용하는 라이선스 제품이 아니라 VM내에서 다수의 프로세서를 사용할 수 있게 허용.

 

2) vMotion - Stroage vMotion

물리 호스트 서버들 간에 CPU와 메모릴ㄹ 재배치해 동작중인 VM을 이동.

VM의 스토리지만 이동.

공유 스토리지의 필요(iSCSI, SAN, NFS 등)

 

3)  vSphere DRS (Distributed Resource Scheduler)

분산 자원 스케줄러

VMware  ESXi 클러스터와 윈도우 서버 클러스터 간의 구성은 많이 다름.

- VM이 시작할 때 DRS는 해당 시점에 각 VM이 동작하기에 가장 적합한 호스트에 VM을 배치.

- VM이 동작중이면 DRS는 자원 사용 수준의 균형 유지를 위해 자원애 대한 경쟁을 최소화 하면서 요구된 자원을 VM에    제공.

 

4) 스토리지 DRS

스토리지 용량과 성능 균형

데이터 스토어 클러스터만 지정하면 스토리지 DRS가 적절한 데이터 스토어에 VM 디스크를 배치.

지연 시간 임계값에 근거해 스토리지 사용량 재조정.

 

5) 스토리지 I/O 컨트롤

스토리지 I/O에 상대적 우선 순위 부여

 

6) HA(High Availability)

HA Failover 상황에서는 어떤 고장에 대한 예측도 없고 계획된 중단이 아니므로 vMotion을 수행할 시간적 여유가 없음.

HA 기능을 사용해도 '서비스의 중단은 발생'. 

물리 호스트나 스토리지 장애 시 VM은 클러스터 된 다른 호스트 서버에서 재시작 되며 그 시간 동안 해당 VM이 서비스하는 것들은 중단 됨.

 

7) FT (Fault Tolerance)

물리적 호스트 고장 시에도 중단 시간을 없애 줌? vLookstep 기술 이용

주 VM(원본 가상 머신)에서 발생하는 모든 것이 복제된 보조 VM에서 동시에 일어나므로 주 VM의 물리 호스트가 고장 나면 보조 VM을 즉시 실행시켜 서비스 손실이 없게 함.

주 VM에서 발생하는 모든 I/O와 인터럽트들이 보조 VM에서도 동일하게 일어남.

 

8) vSAN

별도 라이선스 필요. VSA(vSphere Storage Appliance) 기반

최소 3개의 ESXi 호스트, 최대 64개

vSAN은 컴퓨터 노드들의 스토리지를 모다 다수의 컴퓨터 노드에 걸쳐있는 데이터스토어를 생성하게 해줌.

 

'Server > VMware 서버 가상화' 카테고리의 다른 글

VMware 3  (0) 2020.07.15
VMware 1  (0) 2020.07.14
Posted by jk.jeong
,

1. 하이퍼바이저

1) Type1

직접 시스템 하드웨어 위에서 구동, 베어메탈 하이퍼 바이저

ESXi는 베어메탈 하이퍼바이저

KVM, Hyper-V, XenServer 등이 포함됨.

2) Type2

호스트 운영체제가 필요. 호스트 운영체제는 I/O 장치 지원과 메모리 관리를 제공.

 

2. VMkernel

CPU 스케줄링, 메모리 관리, 가상 스위치 데이터 처리를 제공해 가상 머신이 하무 물리 하드웨어에 접근하는 것을 관리해 줌.

-그림 삽입-

 

3. VMware vCenter 서버

VMware ESXi 호스트 관리, 호스트와 각 VM들에 중앙 집중화된 관리 프레임워크 제공.

기능

vSphere vMotion, vSphere DRS, vSphere HA, vShpere FT, EVC(Enhanced vMotion Campatibility), 서버들 간의 CPU 호환성, 스토리지 I/O 컨트롤, vShpere 분산 스위치, 네트워크 I/O 컨트롤

 

4. VMware vRealize Orchestrator

vCenter 서버의 모든 인스턴스와 함께 자동으로 설치되는 Workflow 자동화 엔진

AD, UCS 등의 연동

'Server > VMware 서버 가상화' 카테고리의 다른 글

VMware 3  (0) 2020.07.15
VMware 2 - vSphere  (0) 2020.07.14
Posted by jk.jeong
,

가상  컴퓨터 생성 및 초기 구성


1. NUMA (Non-Uniform Memory Access)

- CPU는 가상화 기술 지원과 함께 나날이 더 많은 코어를 지원하는 형태로 발전.

- 초창기 CPU코어도 1개로 설계. 1개의 CPU 코어가 메모리와 연계되어 작동하는 구조. CPU와 메모리는 상호 교신을 위한 버스를 가짐. 1개의 코어와 메모리가 있을 경우 이 채널에 대한 병목이 문제되지 않지만 다수의 코어가 사용되면서 메모리와 교신하는 버스에 대한 병목 현상이 발생 => CPU코어가 빨리 일을 처리하더라도 메모리와의 교신에서 병목이 발생해서 성능이 떨어지는 현상이 발생.


- NUMA는 이러한 병목을 해결하기 위함 <-> UMA

- UMA의 경우 모든 CPU 코어들이 메모리를 하나의 통으로 생각하고 접근하는 구조. 

- NUMA는 CPU코어와 메모리의 일부를 그룹으로 묶어서 처리하는 구조. 여러 프로세스들이 동일 메모리 주소에 접근하려할 때 성능 충돌을 피할 수 있음. 

- 컴퓨터가 켜질 때 CPU 코어를 균등히 분할하고 분할된 코어들이 사용할 메모리 공간을 묶어 노드를 생성. 하나의 노드 내 코어들은 최대한 같은 노드 내 메모리를 이용하는 형태로 교신하는 것. 같은 노드 내 메모리 공간이 부족할 경우 다른 노드의 메모리를 사용하도록 동작하지만, 처음부터 다른 노드 메모리를 사용하지는 않음.


- NUMA 아키텍처는 SMP 아키텍처의 확장성 제한을 극복하기 위해 고안. SMP를 사용하면 모든 메모리 엑세스가 같은 공유 메모리 버스를 게시. CPU 수가 비교적 적을 때는 문제가 없지만 공유 메모리 버스 엑세스를 위해 수십 개나 수백 개의 CPU가 경쟁할 경우에는 이 기능이 제대로 동작하지 않음. 특정 메모리 버스의 CPU 개수를 제한하고 고속 연결로 여러 개의 노드를 연결하여 병목 현상을 완화.



2. ccNUMA (cache-coherent NUMA)

- 거의 모든 CPU 아키텍처는 CPU캐시라고 알려진 적은 양의 매무 빠른 비공유 메모리를 사용. NUMA에서 공유 메모리의 캐시 일관성을 유지시키는 것은 상당히 어려운 일. 


3. NUMA 스패닝

- 가상 컴퓨터가 시작될 때 하나의 NUMA 노드에서 가상 컴퓨터에서 요청한 프로세서 코어와 메모리 할당이 모두 되지 않을 경우 두 번째 NUMA노드에서 이를 확장하여 처리하는 것.





1세대 & 2세대 가상 컴퓨터 차이


- Windows Server 2012까지의 Hyper-V 가상 컴퓨터는 모두 1세대 형태.

- 전통적인 BIOS는 PC-AT BIOS. Hyper-V 에 설계된 PC-AT BIOS의 경우 성능은  최적화 되었으나 몇 가지 한계점이 있음.

 a) 최대 2.2TB의 부트 볼륨 

 b) 가상 IDE로만 부팅 가능

 c) PXE부트의 경우에는 에뮬레이션되는 NIC를 사용해야 함.

 d) COM포트나 플로피 디스크를 제공하기 위한 에뮬레이션.

- 이러한 한계점을 해결하기 위해 나온 것이 2세대. 2세대는 BIOS 형태가 아닌 UEFI(Unified Extensible Firmware Interface) 펌웨어 형태를 사용. SCSI컨트롤러 사용=> GPT파티션 사용 가능하므로 2.2 TB의 용량 한계와 에뮬레이션된 NIC을 사용한 PXE 부트를 해결.


- IDE 컨트롤러에 연결된 디스크는 운영 중에 디스크를 추가하거나 용량 조절 등의 작업을 할 수 없음.

- 1세대 가상 컴퓨터의 경우 부트 디스크는 무조건 IDE 컨트롤러에 연결해야 하므로 운영 도중 디스크에 대한 변경 작없을 할 수 없음. 

- 2세대는 SCSI 컨트롤러를 사용하므로 가능.


- 2세대 가상 컴퓨터는 UEFI 펌웨어를 사용한다는 것. UEFI 펌웨어 형태를 인식하지 못하는 운영체제는 2세대 가상 컴퓨터로 구성할 수 없음. Windows Server 2012 이후부터 사용이 가능.

- 1세대의 경우 각종 에뮬레이션 되고 있는 장치들을 위해 에뮬레이션 되는 PCI버스부터 하위 단계를 제공. 

- 2세대의 경우 모든 하드웨어가 가상 컴퓨터 버스(VMBUS)를  통해 연결 된 장치.


- 가상 컴퓨터 생성 시 '세대 선택'에서는 설치하고자 하는 운영체제의 종류에 따라 결정하는 것이 좋으며 성능상의 차이를 느끼긴 어려움. 

- 각 세대로 설정된 가상 컴퓨터는 나중에 다른 세대로 변경할 수 없으며, 부트 영역의 경우 1세대는 BIOS기반의 MBR, 2세대는 UEFI 방식이기 때문에 사전에 만들어 놓은 가상 하드 디스크는 호환할 수 없음.

  


메모리 할당

- 메모리 버퍼: Hyper-V가 예약해 놓은 메모리에 대한 백분율. 기본값 20%. 가상 컴퓨터 메모리의 남은 양이 20% 미만인 경우 추가 메모리를 요구해서 가상 컴퓨터에 할당. 

- 동적 메모리 10GB ~ 20GB 범위에서 설정 했을 경우 최소 10GB 메모리를 할당 받고 이후 10GB 중 8GB 이상을 사용하면 20% 메모리 버퍼가 설정되어 12GB의 메모리를 준비.

 

하드웨어 추가

- SCSI 컨트롤러: 가상 하드 디스크나 DVD 드라이브 추가하기 위해 컨트롤러 추가. 개별 SCSI 컨트롤러에 최대 64개 디스크 연결 가능. 최대 4개의 컨트롤러 추가할 수 있음

- 레거시 네트워크 어댑터: 에뮬레이션 방식이 아닌 실제 NIC에 연결되는 Synthetic NIC을 제공. 통합 서비스 패키지가 지원되지 않은 운영체제를 사용하거나, 1세대 가상 컴퓨터에서 PXE 부트를 통해 운영체제를 설치한다면 레거시 네트워크 어댑터가  필요.

- 파이버 채널 어댑터: FC 형태로 호스트가 스토리지에 연결할 수 있음.

- RemoteFX 3D 어댑터: RemoteFX를 사용할 경우, 가상 컴퓨터에 활용할 수 있는 비디오 어댑터 추가.

* 가상 컴퓨터에 고성능 GPU 그래픽 카드가 필요할 경우 호스트에 그래픽 카드 설치 GPU 가상화를 이용.

 

프로세서

- 최대 64개의 가상 프로세서 사용 가능하며 호스트 프로세서 숫자를 넘어갈 수 없음.

- 호환성: 성능 및 제조 시기 세대가 다른 CPU를 가진 호스트 간 마이그레이션 가능. 타 벤더 간 불가능.


 





 





'Server > Hyper-V' 카테고리의 다른 글

Network  (0) 2017.07.24
가상 하드 디스크  (0) 2017.07.23
2. Hyper-V  (0) 2017.02.07
1. 서버 가상화  (0) 2017.02.07
Posted by jk.jeong
,

Network

Server/Hyper-V 2017. 7. 24. 00:02

Network

 

- Hyper-V나 다른 가상화 기술은 가상화 기술 내 가상 스위치를 생성해서 여기에 가상 컴퓨터 NIC에 연결되는 구조. (가상의 NIC이 실제 NIC을 통해 스위치에 연결되는 형태가 아님)

 

1. 가상 스위치 관리자

1) 외부: Hyper-V 호스트를 넘어 다른 호스트나 외부 네트워크와 교신하기 위한 외부 형태의 가상 스위치.

2) 내부: 호스트 내 가상 컴퓨터 간 가상 컴퓨터와 Hyper-V 호스트만 교신 가능한 형태의 네트워크

3) 개인: 호스트 내 가상 컴퓨터 간만 교신 가능한 네트워크

 

2. 가상 스위치

- NIC 속성: 일반적인 네트워크 카드 속성의 체크 박스가 해제되고 'Hyper-V 확장 가능 가상 스위치' 만 체크되어 있음.

- Hyper-V 호스트에 대해 가상 스위치와 연결한 후 관련된 네트워크 설정은 무조건 vEthernet에서 구성해야 함.

- 개인용으로 설정된 가상 스위치는 호스트와 교신이 필요 없는 구조이므로 별도의 호스토용 가상 NIC이 생성되지 않음. 내부용으로 설정된 가상 스위치는 가상 컴퓨터와 해당 호스트 간의 교신을 할 수 있는 구조이므로 호스트에 가상 NIC이 생성. 해당 가상 NIC은 외부 네트워크와 교신을 할 수 없는 구조!

* 네트워크 카드 명명 규칙을 가지자 (p-physical, v-virtual 등으로 구분)

- NIC 팀 구성: Windows 2012 부터 기본 제공, 하드웨어적으로 NIC팀이 된 형태를 다시 소프트웨어적으로 구성하면 안됨.

 

3. VLAN

- 스위치 포트에 구분자를 지정하는 기술. 802.1Q

- Hyper-V 의 가상 스위치는 VLAN ID를 구분해서 동일한 VLAN ID 간 교신, VLAN ID가 부여되지 않은 가상 컴퓨터 간의 교신을 모두 처리해 주며 별도의 스위치에 VLAN ID 구성을 개별 포트에 하지 않더라도 가상 컴퓨터의 VLAN ID를 스위치에 반영하는 형태로 구성.

- VLAN ID 2를 가진 가상 컴퓨터와 VLAN ID 3을 가진 가상 컴퓨터는 통신되지 않음.

- 실제 스위치에도 VLAN ID에 대한 설정이 되어 있어야 가상 스위치에서도 처리.

- Windows Server 2008 R2까지 가상 스위치 기본 설정은 엑세스 모드. 2012부터는 트렁크 모드가 기본. 




4. Hyper-V 네트워크 성능


- Hyper-V에서 가상 스위치를 생성하고 가상 컴퓨터와 통신하는 기본 형태. I/O 가상화

- 가상 컴퓨터 내 Synthetic NIC가 제공되고 이 처리가 VMBUS를 통해 부모 파티션에 전달 됨. 전달된 부모 파티션의 신호는 실제 하드웨어도 전달.

- Hyper-V 내 가상 스위치는 소프트웨어 기술이고, 여러 가상 컴퓨터가 가상 스위치를 사용하면 성능 이슈가 발생. 성능 저하는 소프트웨어적으로 NIC 하드웨어 가상화를 처리하고 있기 때문.


1) SR-IOV

- Single Root I/O Virtualization. NIC에 대한 하드웨어 가상화 기술.

- 가상 컴튜퍼에서 직접 하드웨어에 대한 정보를 받아 교신을 하드웨어와 바로 처리를 할 수 있게 해줌.

- 가상 컴퓨터에서 실제 NIC으로 인지할 수 있는 가상 기능(VF)을 제공.가상 컴퓨터는 VF를 제공 받아 실제 NIC으로 네트워크 처리를 전달. 전달된 네트워크 처리는 실제 NIC의 큐에서 순서에 따라 처리되기 때문에 Hyper-V 가상 스위치에 네트워크 연결 처리를 할 때 연결성 부분만 처리하면 됨.

- 실제 신호 전달에 대한 부분은 일일이 제어하지 않아도 됨.

- 큐가 하나 있는 NIC을 SR-IOV를 지원한다고 하며 다수의 큐를 제공하는 것은 MR-IOV

- Get-NetAdapterSriov 로 확인

- 가상 스위치 SR-IOV 사용

=> SR-IOV 사용 옵션은 생성 후에는 변경 불가. 잘못 구성 시 가상 스위치 재 생성 필요.







 



'Server > Hyper-V' 카테고리의 다른 글

가상 컴퓨터 생성 초기 구성  (0) 2017.07.31
가상 하드 디스크  (0) 2017.07.23
2. Hyper-V  (0) 2017.02.07
1. 서버 가상화  (0) 2017.02.07
Posted by jk.jeong
,

VHD(Virtual Hard Disk)

 

2012부터는 기본 VHDX(Virtual Hard Disk Extension)

 

1. 개념

- MS의 다양한 기술에서 활용되는 파일용 컨테이너

- VHD를 압축 파일 형태로 사용할 수도 있으며 VHD파일을 휴대해서 복사해 다른 컴퓨터로 이동 가능

 

2. VHDX

- 최대 64TB 지원 / 향상된 내결함성 / 더 커진 섹터 지원 / 사용자 지정 메타 데이터

 

3. 종류

1) 고정 크기

- 처음부터 원하는 크기의 VHD 파일을 사전에 호스트의 디스크에 생성

 

2) 동적 확장

- 처음 생성할 때 작은 크기의 VHD 파일을 생성해 놓은 후 필요시 이를 파일에 지정된 크기까지 계속 확장해 가며 사용하는 방식.

 

3) 차이점 보관용

- 부모 가상 하드 디스크와 관계를 함께 하며 부모 가상 하드 디스크에 대한 일방적인 변경은 차이점 보관용 하드 디스크와의 관계를 깰 수도 있음.

 

4. 디스크 차이점

1) 디스크 단편화

- 고정 크기의 경우 VHD 파일에 대한 디스크 블록을 미리 확보할 수 있지만 동적 확장 가상 디스크의 경우 필요할 때마다 크기가 증가되기 때문에 고정 크기 가상 디스크에 비해 디스크 단편화 발생 확률이 높음.

- 차이점 보관용의 경우 디스크 I/O 부하도 고려해야. 여러개의 차이점 디스크가 있을 경우 모두 부모 가상 하드 디스크를 사용하므로 디스크 I/O가 높아질 수 있음.

 

5. Hyper-V I/O 기본 처리 아키텍처

 

 

그림

- Hyper-V의 경우 디스크 처리에 대한 부분을 자식 파티션에서 요청한 것을 부모 파티션(호스트)를 통해 처리 됨. 가상 컴퓨터에서 실제 하드 디스크를 직접 접근할 수 있는 구조를 가상화에서 제공하지 않음.

- 실제 디스크에 직접 가상 컴퓨터가 데이터를 쓸 수 있는 방법? Pass Through

 

6. VHD 파일 용량 줄이기

- 기본적으로 Hyper-V가 가상 하드 디스크에 대한 처리 방식을 줄어들지 않는 형태로 설계.

- 압축 진행: 크게 줄어 들지 않음...

  a) 가상 하드 디스크 내 단편화가 심해서 데이터가 일렬로 저장되어 있지 않고 여기 저기 흩어져 있음.

   => 디스크 조각 모음을 통해 단편화율을 줄임. 2~3회 정도 디스크 조각 모음 진행 후 압축

  b) 가상 하드 디스크 내 압축은 가상 하드 디스크에서 사용하지 않는다고 표시된 영역에 대해서만 줄여줌.

   => Pre-Compactor : 가상 하드 디스크에 사용하지 않는 영역 표시

 

 

* TRIM / UNMAP ?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.

'Server > Hyper-V' 카테고리의 다른 글

가상 컴퓨터 생성 초기 구성  (0) 2017.07.31
Network  (0) 2017.07.24
2. Hyper-V  (0) 2017.02.07
1. 서버 가상화  (0) 2017.02.07
Posted by jk.jeong
,

2. Hyper-V

Server/Hyper-V 2017. 2. 7. 17:10

Hyper-V


1. Hyper-V

- x64 시스템을 위한 하이퍼바이저 기반의 가상화 시스템. 


2. 가상화 종류

- 서버 가상화: 서버 운영체제를 기반으로 하드웨어를 논리적으로 구분하여 컴퓨터 동작을 위한 가상 컴퓨터를 생성.

- 데스크톱 가상화: 데스크톱 운영체제를 기반으로 하드웨어를 논리적으로 구분해서 동작시키거나 하드웨어에 대한 에뮬레이션 형태의 가상화 기술.

- 프리젠테이션 가상화: 실제 컴퓨팅 처리에 대한 부분은 원격 서버에서 운영되며 접속하는 컴퓨터에서는 화면과 키도드, 마우스 입출력 등을 처리하는 함.

- 응용 프로그램 가상화: 응용 프로그램을 사용하고자 하는 컴퓨터에 설치한 후 실행. 


3. 서버 가상화 종류

- 호스트 기반 가상화

  하드웨어 위에 운영체제가 설치되고 해당 운영체제 내 가상화 영역이 설치 됨. 운영체제 내에 설치된 가상화 기술은 하드웨어 형태가 아닌 에뮬레이션 구조로 하드웨어를 제공.

  호환성 측면에서 좋을 수 있으나 에뮬레이션이 많아지면(가상 컴퓨터의 개수가 늘어나면) 호스트 운영체제에 부하가 걸리고, 호스트의 소프트웨어에 문제가 발생하면 전체 가상 컴퓨터의 문제가 될 수 있음.


- 전체 가상화

  호스트 기반 가상화에서는 RING 0(CPU 아키텍처와 운영체제간 관계 이해하기)에 대한 출입을 소프트웨어에서 담당했지만 전체 가상화에서는 하드웨어에서 담당(RING -1사용) => 하이퍼바이저라고 하며 하이퍼바이저 기반의 전체 가상화 기술은 반드시 CPU에서 제공하는 가상화 기술이 있어야 함.

  부모/자식 관계로 호스트 서버와 가상 컴퓨터가 불러지고, 하드웨어에서 바라보는 형태는 동일. 하드웨어어 대해서 실제 호스트 서버와 가상 컴퓨터가 동일한 입장에서 접근.

 

- 모노리틱 하이퍼 바이저 (VMware ESXi)

  하드웨어 처리를 위한 드라이버가 하이퍼바이저에 있음. 가상화 소프트웨어에서 설계 시 제공하는 드라이버만을 하위 하드웨어에서 사용 할 수 있음. 

- 마이크로커널 하이퍼바이저 (Hyper-V) 

  드라이버에 대한 관리를 부모 파티션(컴퓨터간 나누어 놓은 고유 공간)에서 관리. 부모 파티션에 설치된 운영체제에서 드라이버를 관리하므로 부모 파티션에 설치된 운영체제에서 사용할 수 있는 드라이버에 대ㅎ한 하드웨어는 모두 가상화 환경에서 사용 가능.

- Hyper-V가 마이크로커널 하이퍼 바이저를 사용하는 이유?

  안정성과 보안, 범용성

* 모노리틱이 마이크로커널보다 하드웨어를 가상 컴퓨터에 직접 제공할 수 있다는 장점이 있기에 성능이 더 좋다 하지만 하드웨어 성능이 발전함에 따라 크게 차이가 나지 않음.


4. Hyper-V 아키텍처

   Windows Server에 Hyper-V가 설치되면 부모 파티션용 운영체제가 부팅되기 전 하드웨어 영역 위에 Windows용 하이퍼바이저가 구성 됨. 이후 하이퍼바이저에서 만들어져 제공되는 파티션에 실제 호스트용 운영체제가 구성됨.

   하이퍼 바이저는 실제 하드웨어를 가상 컴퓨터가 바로 접근하여 사용하는 구조가 아니라 가상화 소프트웨어가 하드웨어 구조를 추상화한 후 가상 컴퓨터에는 모조품의 형태로 하드웨어를 제공. 

  Synthetic장치-가상 컴퓨터에서 보여지는 하드웨어. 추상화된 모조의 하드웨어 Synthetic 장치에 대한 드라이버가 필요하며 해당 드라이버는 Hyper-V를 지원하는 운영체제게 포함되어 있거나 업데이트가 필요.


- 하드웨어 추상화가 되어 있기 때문에 추상화된 모조의 하드웨어 Synthetic 장치에 대한 드라이버만 필요

  :운영 체제에 포함되어 있거나 필요시 추가적인 업데이트가 필요.

- Hyper-V 가상 컴퓨터 버스, VMBUS는 Hyper-V 실제 호스트와 VM간 연결된 메모리 공간



'Server > Hyper-V' 카테고리의 다른 글

가상 컴퓨터 생성 초기 구성  (0) 2017.07.31
Network  (0) 2017.07.24
가상 하드 디스크  (0) 2017.07.23
1. 서버 가상화  (0) 2017.02.07
Posted by jk.jeong
,

클라우드, 가상화?


1. 클라우드 컴퓨팅 개념

- 용어의 개념이 분명하지 않다...

- "클라우드"라는 낱말은 일반적으로 과학에서 구름처럼 먼 거리에서 시각적으로 보이는 물건들의 커다란 집합체를 기술하기 위해 사용되며 주어진 문맥에서 세세한 부분이 더 이상 관찰되지 않는 물건들의 집합을 기술 한다. 

- 인터넷의 비유로서 사용되었으며 구름과 같은 표준화된 모양은 전화 도식망을 나타내기 위해 사용되었다.나중에 컴퓨터 네트워크 다이어그램에 인터넷을 기술하기 위해 사용 되었다.  - 위키 백과


2. 특징

- 기술 인프라 자원들의 재보충, 추가, 확장에 대한 사용자의 유연성을 제고

- 비용 절감? 

- 장치 및 위치 독립성, 언제, 어디서든, 어떠한 시스템에서든

- 쉬운 유지 보수

- 멀티테넌시 - 자원과 비용 공유

- 여러 사용자가 동일 데이터를 동시 작업으로 인한 생산성 향상?


3. 서비스 모델

 1) IaaS

 - 컴퓨팅 인프라스트럭처, 즉 가상 머신과 기타 자원들을 구독자에 대한 서비스로 제공하는 모델. 물리적 컴퓨팅 자원, 데이터 파티셔닝, 확장, 보안, 백업과 같은 세부 부문 포함. 

 - IaaS 클라우드 제공자들은 요청이 오면 이러한 자원을 데이터 센터에 설치된 수많은 장비를 통해 제공.


 2) PaaS

 - 응용 프로그램 개발자들에게 개발 환경 제공. 개발을 위한 툴킷과 표준, 배포 및 지불을 위한 채널을 개발. 제공자들은 운영체제, 프로그래밍언어 실행 환경, DB, 웹 서버를 포함한 컴퓨팅 플랫폼을 배급.


 3) SaaS

 -  응용 소프트웨어와 데이터베이스에 대한 접근 권한을 가짐. 제공자들은 응용 프로그램을 실행하는 인프라 스트럭처와 플랫폼을 관리. 가격 정책은 일반적으로 종량제나 구독 기반. 제공자들은 클라우드에 응용 소프크웨어를 설치, 운영하며 사용자들은 클라이언트 소프트웨어에 접근하여 사용..



가상화 기술

- 하드웨어가 발전함에 따라 하나의 하드웨어 내에 하나의 운영체제와 하나의 응용 프로그램만으로는 모든 자원을 사용할 수 없게 되었고, 여러 응용 프로그램을 설치하여 운용하게 되었으나 응용 프로그램들 간의 충돌 등의 문제. 하드웨어의 성능 향상과 운영 체제에 대한 시장의 요구에 의해 하드웨어를 소프트웨어적으로 나누어서 서로 간섭받지 않는 공간을 만들어 달라는 요구.

- 가상화: 하드웨어와 운영체제 사이에 소프트웨어 기술이 자리잡고, 하드웨어를 논리적으로 나눠서 운영체제에게 제공할 수 있는 기술과 나누어진 공간 안에서 사용하는 운영체제는 다른 운영체제가 같은 하드웨어 안에 논리적으로 구분된 다른 공간에 있다는 사실을 알 수 없도록 보안상으로 구현하는 기술이 등장.

- 추상화: 외부 서비스를 받는 사용자는 본인의 운영체제가 실제 하드웨어에 설치된 운영체제인지, 가상화 환경에 설치된 운영체제인지 구분할 수 없음. 하드웨어에 추상화 기술을 적용하면 소프트웨어적으로 부하가 증가하는 운영체제에 대해 프로세서/메모리에 대한 증가를 빠르게 처리할 수 있음.

- '클라우드' = 모든 IT기술들이 잘 연계되어 서비스와 같은 형태로 제공되는 것? 서비스이며 하드웨어부터 운영체제, 응용프로그램 그리고 잘 만들어진 자동화/프로세스까지 해당.

- Private/Public 클라우드, Hybrid 클라우드



'Server > Hyper-V' 카테고리의 다른 글

가상 컴퓨터 생성 초기 구성  (0) 2017.07.31
Network  (0) 2017.07.24
가상 하드 디스크  (0) 2017.07.23
2. Hyper-V  (0) 2017.02.07
Posted by jk.jeong
,