NetApp Tech OnTap NetApp Logo NetApp Logo
NetApp Tech OnTap
     
NetApp과 Red Hat의 긴밀한 협업을 통해 pNFS 표준 구현
Pranoop Erasani
Pranoop Erasani
기술 담당 이사, NFS
Justin Parisi
Justin Parisi
기술 마케팅 엔지니어

공유 데이터 액세스는 다양한 과학, 엔지니어링, 비즈니스 및 재무 애플리케이션의 성능에 지대한 영향을 미칩니다. 가장 널리 사용되는 공유 데이터 액세스 표준 프로토콜인 NFS는 대규모 컴퓨팅 클러스터에 병목 현상을 일으킬 수 있습니다. 이런 병목 현상이 발생하면 공유 파일 시스템의 모든 파일에 액세스 가능한 단일 지점인 파일 서버에 오버로드가 생깁니다.

고성능과 공유 데이터 액세스를 제공하는 대부분의 솔루션은 독점적인 특정 기능이 있어, NFS와 같은 표준 프로토콜과는 달리 이기종 시스템을 지원하거나 폭넓게 구현할 수 없습니다.

NFS 4.1 버전 프로토콜 사양(RFC 5661)의 하위 기능인 pNFS(Parallel NFS) 표준은 단일 서버 병목 현상을 해결할 뿐만 아니라, 병렬 데이터 액세스를 위한 표준화 솔루션이 될 가능성이 높습니다. 이 기사에서는 pNFS의 작동 방법에 대해 설명하고, NetApp과 Red Hat가 pNFS를 발전시키기 위해 쏟는 노력과 pNFS가 clustered NetApp® Data ONTAP®에서 구현되는 방법을 살펴보겠습니다.

pNFS란 무엇입니까?

pNFS 프로토콜을 사용할 경우 클라이언트는 2개 이상의 데이터 서버에 스트라이핑된 파일에 직접 액세스할 수 있습니다. 클라이언트는 여러 데이터 서버에 병렬로 액세스하여 I/O 시간을 대폭 단축합니다. pNFS 프로토콜은 표준 NFS 프로토콜과의 하위 호환성에 영향을 주지 않으면서 클라이언트와 파일 모두에 대해 적절한 성능 확장을 실현합니다. 따라서 pNFS 확장을 지원하지 않는 클라이언트에서도 데이터에 액세스할 수 있습니다.

pNFS 아키텍처 및 핵심 프로토콜

pNFS 아키텍처는 다음과 같은 세 가지 주요 요소로 구성됩니다.

  • 메타데이터 서버는 데이터가 아닌 모든 트래픽을 처리하며, 각 파일의 저장 위치와 방법을 설명하는 메타데이터를 유지합니다.
  • 데이터 서버 는 파일 데이터를 저장하고 클라이언트 읽기 및 쓰기 요청에 직접 응답합니다. 여러 데이터 서버에 파일 데이터를 스트라이핑할 수 있습니다.
  • 하나 이상의 클라이언트 가 메타데이터 서버로부터 수신한 메타데이터의 정보를 기반으로 데이터 서버에 직접 액세스할 수 있습니다.

클라이언트, 메타데이터 서버 및 데이터 서버 간에 다음과 같은 세 가지 유형의 프로토콜이 사용됩니다.

  • 제어 프로토콜은 메타데이터 서버와 데이터 서버를 동기화하는 데 사용됩니다. 이 프로토콜은 pNFS 사양에 정의되지 않으며 공급업체마다 다릅니다.
  • pNFS 프로토콜은 클라이언트와 메타데이터 서버 간에 사용됩니다. 기본적으로, 일부 pNFS 관련 확장을 지원하는 NFSv4입니다. 이 프로토콜은 레이아웃을 검색 및 조작하는 데 사용되며, 여러 데이터 서버에 저장된 파일에 액세스하는 데 필요한 위치 및 스토리지 액세스 프로토콜에 대해 설명하는 메타데이터를 포함합니다.
  • 클라이언트에서 데이터 서버에 직접 액세스하기 위해 스토리지 액세스 프로토콜 세트를 사용합니다. 현재 pNFS 표준은 세 가지 범주의 스토리지 프로토콜 즉, 파일 기반(RFC5661), 블록 기반(RFC5663) 및 개체 기반(RFC5664) 스토리지 프로토콜을 정의합니다. Clustered Data ONTAP은 현재 파일 기반 스토리지 프로토콜을 지원하고 NFSv4.1을 사용하여 데이터 서버에 액세스합니다.

pNFS 요소. 클라이언트가 메타데이터 서버에 레이아웃을 요청한 다음(pNFS 프로토콜) 데이터 서버에 직접 액세스합니다(스토리지 액세스 프로토콜).

그림 1)pNFS 요소. 클라이언트가 메타데이터 서버에 레이아웃을 요청한 다음(pNFS 프로토콜) 데이터 서버에 직접 액세스합니다(스토리지 액세스 프로토콜).

클라이언트는 파일에 액세스하기 위해 메타데이터 서버에 연결하여 파일을 열고 파일 레이아웃을 요청합니다. 클라이언트는 파일 레이아웃을 수신하면 해당 정보를 사용하여 데이터 서버에 대한 입/출력을 직접 병렬 처리합니다. 이때 메타데이터 서버의 추가적인 개입 없이 적절한 스토리지 액세스 프로토콜을 사용합니다. pNFS 클라이언트는 병렬 I/O 작업이 완료될 때까지 레이아웃을 캐싱합니다. pNFS 서버는 서버에 대한 병렬 액세스를 보장할 수 없는 경우 파일 레이아웃을 해지할 수 있습니다. 또한 pNFS는 NFS 서버에서 메타데이터에 액세스하는 데 사용하는 현재 메커니즘을 수정하지 않습니다.

pNFS 표준을 위한 NetApp 및 Red Hat 팀

pNFS 솔루션을 사용하려면 클라이언트 구성요소와 서버 구성요소가 모두 필요합니다. NetApp과 Red Hat은 업스트림 커뮤니티와의 긴밀한 협력을 통해 업계 최초로 표준 기반 엔드 투 엔드 pNFS 솔루션을 제공합니다.

NetApp은 스토리지 클러스터링과 pNFS를 결합하여 확장 문제를 해결합니다. Clustered Data ONTAP 8.1 이상을 실행하는 NetApp FAS 및 V-Series 스토리지는 수 테라바이트에서 69페타바이트 이상까지 쉽게 확장될 수 있습니다. 또한 전체 용량을 단일 스토리지 엔티티로 관리하여 pNFS 환경 관리를 간소화하고 모든 다운타임을 제거할 수 있습니다.

Red Hat Enterprise Linux®에서 완벽하게 지원되는 업체 최초의 pNFS 클라이언트를 사용하여 pNFS를 기반으로 확장 가능한 차세대 파일 시스템 솔루션을 계획하고 설계할 수 있습니다. 애플리케이션 워크로드에 미치는 영향 없이 pNFS를 최대한 활용하여 기존 애플리케이션을 완벽하게 전환할 수 있습니다.

pNFS 및 clustered Data ONTAP

NetApp은 clustered Data ONTAP 8.1부터 pNFS를 구현했습니다 (7-Mode 또는 Data ONTAP 7G 구현 없음). Clustered Data ONTAP에 구현된 pNFS는 다음과 같은 많은 이점을 제공합니다.

  • 단순한 인프라: 스토리지뿐 아니라 많은 전용 서버가 필요한 Lustre, GPFS와 같은 다른 병렬 파일 시스템에 비해 pNFS용 전체 인프라는 더 간단합니다.
  • 관리 효율성: 일반적으로 pNFS에는 개별적으로 관리해야 하는 여러 파일 서버가 포함되어 있습니다. Clustered Data ONTAP을 사용하면 모든 서버측 pNFS 구성요소를 단일 시스템으로 관리할 수 있습니다.
  • 무중단 운영성: NetApp 클러스터에 pNFS를 설치하면 다른 워크로드와 마찬가지로 스토리지 페일오버, LIF 마이그레이션, 무중단 볼륨 이동 등과 같은 유지보수 및 로드 밸런싱을 위한 무중단 운영성을 활용할 수 있습니다.
  • 모든 노드가 메타데이터 서버 역할 수행: Clustered Data ONTAP을 구축하면 스토리지 클러스터의 모든 노드가 메타데이터 서버 역할과 데이터 서버 역할을 수행할 수 있습니다. 따라서 단일 메타데이터 서버로 인해 발생하는 잠재적인 병목 현상이 제거되고 메타데이터 작업을 클러스터 전체로 분산할 수 있습니다.

Data ONTAP의 pNFS와 NFS 비교 모든 노드가 메타데이터 서버 역할과 데이터 서버 역할을 모두 수행할 수 있습니다.

그림 2) Data ONTAP의 pNFS와 NFS 비교 모든 노드가 메타데이터 서버 역할과 데이터 서버 역할을 모두 수행할 수 있습니다.

pNFS가 clustered Data ONTAP에서 어떻게 작동하는지를 파악하기 위해 클라이언트가 클러스터의 한 노드에서 pNFS 파일 시스템을 마운트했다고 가정합니다. 파일 액세스를 위해 해당 노드에 메타데이터 요청을 보냅니다. 구축된 pNFS 표준에서 위치, 파일 레이아웃, 위치에 도달하는 데 필요한 네트워크 정보 등을 포함하는 정보를 수집하여 반환합니다. 클라이언트는 이 정보를 사용하여 데이터가 위치한 노드에서 데이터에 직접 액세스합니다. pNFS는 볼륨에 대한 직접 경로를 제공하여 애플리케이션의 처리량을 높이고 지연 시간을 단축하도록 지원합니다.

pNFS는 LIF 마이그레이션, 스토리지 페일오버, 볼륨 이동 등과 같은 clustered Data ONTAP 무중단 운영성과 완벽하게 통합됩니다. 이러한 작업 중 하나가 발생하면 pNFS 클라이언트와 서버가 서버에 대한 새로운 직접 I/O 경로를 자동으로 협상하여 애플리케이션을 중단하지 않고 처리량을 동일하게 유지할 수 있도록 지원합니다. 그러면 스토리지 관리자가 클러스터에서 유지보수 운영을 수행할 때 파일 시스템에 대한 네트워크 경로를 명시적으로 프로비저닝할 필요가 없으므로 상당히 유용합니다. 따라서 clustered Data ONTAP 지원 pNFS는 성능을 향상하는 동시에, 유지보수 운영 중에 관리 워크로드를 간소화합니다. 이는 대규모 클러스터를 프로비저닝 및 구축할 때 필수적입니다.

pNFS를 사용하지 않을 경우 메타데이터 경로 및 데이터 경로가 모두 정적으로 전환 pNFS를 사용할 경우 메타데이터 서비스가 여러 노드로 분산되고, 파일을 저장 중인 노드의 네트워크 인터페이스에 데이터 경로가 직접 연결됩니다. 데이터가 이동하면 데이터 경로가 자동으로 조정되어 최적의 성능을 유지합니다.

그림 3) pNFS를 사용하지 않을 경우 메타데이터 경로 및 데이터 경로가 모두 정적으로 전환 pNFS를 사용할 경우 메타데이터 서비스가 여러 노드로 분산되고, 파일을 저장 중인 노드의 네트워크 인터페이스에 데이터 경로가 직접 연결됩니다. 데이터가 이동하면 데이터 경로가 자동으로 조정되어 최적의 성능을 유지합니다.

모범 사례

최고의 pNFS 성능을 제공하는 몇 가지 모범 사례를 살펴보십시오.

  • NFSv4.1 및 pNFS 클라이언트와의 최신 호환성 정보는 NetApp 상호운용성 매트릭스 를 참조하십시오.
  • pNFS 클라이언트가 노드에 저장된 볼륨에 직접 액세스할 수 있도록 하나 이상의 논리 인터페이스(LIF)를 사용하여 pNFS를 지원하는 각 클러스터 노드를 구성해야 합니다.
  • 메타데이터 집약적인 워크로드의 경우 마운트를 클러스터의 모든 노드로 분산하여 모든 노드가 메타데이터 서버 역할을 수행하도록 pNFS 클라이언트를 구성해야 합니다. 이렇게 하려면 외부 라운드 로빈 DNS(도메인 이름 서버) 또는 clustered Data ONTAP의 온박스 DNS 로드 밸런싱을 사용합니다.

NetApp 스토리지에서 pNFS를 구축하는 방법에 대한 자세한 내용은 TR-4063을 참조하십시오.

Red Hat pNFS 클라이언트

Red Hat pNFS 클라이언트는 2011년에 Red Hat Enterprise Linux(RHEL) 6.2 버전 커널에 처음으로 릴리즈되었습니다. RHEL 6.2 및 RHEL 6.3은 모두 pNFS "Tech Preview" 버전으로 레이블 지정되었습니다.

2013년 2월에 릴리즈된 RHEL 6.4에는 일반에 최초로 제공된 pNFS 버전이 포함되어 있습니다. NFS 또는 pNFS를 실행하는 NetApp 스토리지를 지원하는 Red Hat 클라이언트를 사용하는 방법에 대한 자세한 내용은 TR-3183을 참조하십시오. (이 기술 보고서는 현재 개정 중이므로 본 기사가 게시되는 시점에 제공되지 않을 수도 있습니다. 나중에 다시 확인해 보시기 바랍니다.)

pNFS 사용 사례

pNFS는 병렬 과학 및 엔지니어링 애플리케이션에 적용할 수 있을 뿐만 아니라 다양한 엔터프라이즈 사용 사례에 적합한 고유한 기능을 보유하고 있습니다.

비즈니스 크리티컬 애플리케이션

정의상 비즈니스 크리티컬 애플리케이션은 가장 높은 서비스 레벨을 요구합니다. 서버 요구사항에 따라 스토리지 대역폭과 용량을 원활하게 확장해야 합니다. NetApp 스토리지 볼륨은 NetApp 클러스터 내의 더 강력한 컨트롤러로 투명하게 마이그레이션되므로, Red Hat Enterprise Linux pNFS 클라이언트는 자동으로 데이터 이동을 따르며 스스로 조정하여 데이터 경로를 다시 최적화합니다. 따라서 서버 또는 애플리케이션을 재구성할 필요가 없으므로 다운타임이 거의 발생하지 않습니다.

멀티 테넌트(Multi-tenant) 스토리지 솔루션

병렬 데이터 액세스는 멀티 테넌트(Multi-tenant) 이기종 워크로드를 pNFS에서 직접 활용할 수 있음을 의미합니다. 데이터는 NetApp 클러스터에 상주하며 특정 NetApp 컨트롤러에 연결되지 않습니다. Red Hat Enterprise Linux 서버는 pNFS를 사용하여 최적의 데이터 경로를 찾아 자동으로 조정하여 처리량을 최적화합니다.

혼합 클라이언트 및 워크로드

NFSv4.1 및 pNFS는 클러스터 네임스페이스의 어디에서든 파일 시스템을 유연하게 마운트할 수 있습니다. Clustered 애플리케이션은 pNFS를 통해 마운트할 수 있는 반면 레거시 애플리케이션은 여전히 NFSv3를 통해 마운트할 수 있습니다. 스토리지에서 엑스포트된 파일 시스템은 다양한 NFS에 클라이언트를 마운트할 수 있으므로 데이터에 액세스하는 애플리케이션을 크게 변경하지 않고도 공존할 수 있습니다. 이러한 유연성은 잦은 변경 관리 부담을 줄여줍니다.

가상화 환경

Red Hat Enterprise Linux pNFS 클라이언트를 사용하는 하이퍼바이저 및 가상 머신은 세션별로 여러 연결을 유지하여 여러 네트워크 인터페이스에 로드를 분산시킬 수 있습니다. 이를 NFS에 대한 멀티패스라고 하며 별도의 멀티패스 드라이버 또는 구성이 필요하지 않습니다.

결론

NetApp은 NFSv4.1 및 pNFS의 선도적 업체로서 작업 그룹을 공동으로 이끌고 있습니다. NetApp은 NFSv4.1 사양의 상당 부분을 작성하여 편집했습니다. 이는 산업 표준을 사용하여 스토리지 문제를 해결하기 위한 NetApp의 노력과 같은 맥락에 있습니다.

최근에 RHEL 6.4 릴리즈와 함께 pNFS 클라이언트가 일반에 제공됨에 따라 Red Hat 클라이언트와 clustered NetApp Data ONTAP을 조합하여 테스트 및/또는 프로덕션용 pNFS를 구현할 수 있습니다.

 pNFS에 대한 의견이 있으십니까?

NetApp 온라인 커뮤니티에서 질문하고, 아이디어를 교환하며, 생각을 공유하십시오.

Pranoop Erasani, 기술 담당 이사, NFS 및 Justin Parisi, 기술 마케팅 엔지니어

Pranoop은 NetApp Protocols Technology Engineering 조직의 선임 NFS 설계자로서, Data ONTAP용 NFS 프로토콜 개발을 지휘하고 있습니다. Pranoop은 clustered Data ONTAP용 pNFS 설계에서 큰 역할을 수행했습니다. Pranoop은 clustered 시스템에서 NFSv4.1/pNFS를 활용해야 한다고 강력하게 주장합니다. 또한 pNFS IETF 표준과 관련한 다양한 토론에 참여했으며 NFS 상호운용성 이벤트에서 자주 생각을 공유합니다. Pranoop은 지속적인 고객 구현 및 스토리지 소프트웨어 솔루션을 위해 기술 마케팅 및 제품 관리 부서에 기술 조언을 제공하는 데 중요한 역할을 합니다.

Justin은 RTP에서 근무하며 지난 5년 동안 NetApp Global Support의 기술 지원 엔지니어 및 중요 문제 해결 에스컬레이션 엔지니어로 활동했습니다. Justin은 clustered Data ONTAP을 중심으로 문제 해결 교육 자료를 개발하고 다양한 기술 자료 기사를 작성했습니다. Justin은 CIFS, NFS, SNMP, OnCommand® System Manager, Unified Manager, SnapDrive®, SnapManager®, Microsoft® Exchange, SQL Server®, Active Directory®, LDAP 등 다양한 영역에 높은 관심을 보이며, 특히 다양한 NetApp 기술에 정통합니다.

Tech OnTap
구독 신청
Tech OnTap은 IT 통찰력, 실제 모범 사례, 유용한 정보와 툴, 미공개 엔지니어링 인터뷰 기사, 데모, 동종 업계 평가 등의 다양한 정보를 매월 제공합니다.

지금 바로 NetApp 커뮤니티의 Tech OnTap 을 방문하여 구독 신청하십시오.

Explore
탐색
pNFS에 대해 자세히 알아보기

pNFS의 정의와 pNFS를 구현하여 IT 환경을 가속화하는 방법에 대해 자세히 알아보시겠습니까? 다음 링크를 확인하십시오.

Explore
 
TRUSTe
연락처   |   구매 방법   |   피드백   |   채용  |   구독   |   개인 정보 보호 정책   |   © 2013 NetApp