createCloudHadoopInstance
- 인쇄
- PDF
createCloudHadoopInstance
- 인쇄
- PDF
Article Summary
Share feedback
Thanks for sharing your feedback!
VPC 환경에서 이용 가능합니다.
개요
Cloud Hadoop 인스턴스를 생성합니다.
요청
요청 파라미터
파라미터명 | 필수 여부 | 타입 | 제약 사항 | 설명 |
---|---|---|---|---|
regionCode | No | String | - 리전 코드 Cloud Hadoop 인스턴스가 생성될 리전(Region) 결정 가능 regionCode는 getRegionList 액션을 통해서 획득 가능 Default: getRegionList 조회 결과의 첫 번째 리전 선택 | |
vpcNo | Yes | String | - VPC 번호 Cloud Hadoop 인스턴스가 생성될 VPC를 결정 가능 vpcNo는 getVpcList 액션을 통해서 획득 가능 | |
cloudHadoopImageProductCode | No | String | - Cloud Hadoop 이미지 상품 코드 cloudHadoopImageProductCode는 getCloudHadoopImageProductList 액션의 productCode로 획득 가능 입력하지 않을 경우 Default값으로 생성됨 Default : Cloud Hadoop 최신 버전 | |
masterNodeProductCode | No | String | - Cloud Hadoop Master 서버 상품 코드 생성할 Cloud Hadoop 인스턴스의 서버 스펙을 결정 가능 masterNodeProductCode는 getCloudHadoopProductList 액션의 infraResourceDetailTypeCode = 'MSTDT'로 설정하여 호출 시 획득 가능 Default:최소 사양으로 선택됨 최소 사양의 기준: 1. 메모리 2. CPU | |
edgeNodeProductCode | No | String | - Cloud Hadoop Edge 서버 상품 코드 생성할 Cloud Hadoop 인스턴스의 서버 스펙을 결정 가능 edgeNodeProductCode는 getCloudHadoopProductList 액션의 infraResourceDetailTypeCode = 'EDGND'로 설정하여 호출 시 획득 가능 Default:최소 사양으로 선택됨 최소 사양의 기준: 1. 메모리 2. CPU | |
workerNodeProductCode | No | String | - Cloud Hadoop Worker 서버 상품 코드 생성할 Cloud Hadoop 인스턴스의 서버 스펙을 결정 가능 workerNodeProductCode는 getCloudHadoopProductList 액션의 infraResourceDetailTypeCode = 'MSTDT'로 설정하여 호출 시 획득 가능 Default:최소 사양으로 선택됨 최소 사양의 기준: 1. 메모리 2. CPU | |
cloudHadoopClusterName | Yes | String | 영어, 숫자, -의 특수문자, 한글만 입력 가능 - 첫 글자와 마지막 글자는 영문자(소문자) 또는 숫자 Min: 3 Max: 15 | Cloud Hadoop 클러스터 이름 |
cloudHadoopClusterTypeCode | Yes | String | - Cloud Hadoop 클러스터 유형코드 cloudHadoopClusterTypeCode는 getCloudHadoopClusterTypeList 액션을 통해서 획득 가능 | |
cloudHadoopAddOnCodeList | No | List<String> | - Cloud Hadoop Add-On 리스트 Cloud Hadoop 1.5 버전이상에서만 사용 - cloudHadoopAddOnCode는 getCloudHadoopAddOnList 액션을 통해서 획득 가능 <예시> cloudHadoopAddOnCodeList PRESTO,HBASE | |
cloudHadoopAdminUserName | Yes | String | 영문자(소문자), 숫자, 하이픈(-)으로만 구성 첫 글자와 마지막 글자는 영문자(소문자) 또는 숫자만 가능 Min : 3 Max: 15 | - 클러스터 관리키 유저명 ambari 관리 콘솔 접속을 위해 필요한 관리자 계정 |
cloudHadoopAdminUserPassword | Yes | String | 영어(대문자), 특수문자, 숫자가 각각 1자 이상 포함 필수 특수문자(작은따옴표(' '), 큰따옴표(" "), 원 기호(₩), 빗금(/), 앰퍼샌드(&), 억음 부호(`), Space는 포함 불가 Min:8 Max:20 | - 클러스터 관리자 패스워드 ambari 관리 콘솔 접속을 위해 필요한 관리자 계정 패스워드 |
loginKeyName | Yes | String | - 인증키 이름 loginKeyName은 getCloudHadoopLoginKeyList 액션을 통해서 획득 가능 노드에 직접 접속할 때 필요한 SSH 인증키 설정 | |
edgeNodeSubnetNo | Yes | String | - 엣지노드의 Subent 번호 엣지노드를 위치 시킬 Subnet을 선택 가능 엣지노드는 Private/Public Subnet안에 위치 edgeNodeSubnetNo는 getSubnetList 액션을 통해서 획득 가능 | |
masterNodeSubnetNo | Yes | String | - 마스터노드의 Subent 번호 마스터노드를 위치시킬 Subnet 선택 가능 마스터노드는 Private/Public Subnet안에 위치 masterNodeSubnetNo는 getSubnetList 액션을 통해서 획득 가능 | |
bucketName | Yes | String | - 버킷 이름 Object Storage에 데이터를 저장하기 위한 공간을 의미 bucketName은 getCloudHadoopBucketList 액션을 통해서 획득 가능 | |
workerNodeSubnetNo | Yes | String | - 작업자노드의 Subent 번호 작업자노드를 위치 시킬 Subnet을 선택 가능 작업자노드는 Private Subnet안에만 위치 workerNodeSubnetNo는 getSubnetList 액션을 통해서 획득 가능 | |
masterNodeDataStorageTypeCode | No | String | SSD | HDD | - 마스터노드의 데이터 스토리지 타입 코드 설치 이후에 데이터 스토리지 타입은 변경되지 않음 Options: SSD | HDD Default: SSD |
workerNodeDataStorageTypeCode | No | String | SSD | HDD | - 작업자노드의 데이터 스토리지 타입 코드 설치 이후에 데이터 스토리지 타입은 변경되지 않음 Options: SSD | HDD Default: SSD |
masterNodeDataStorageSize | Yes | Integer | Min: 100 Max: 2000 | - 마스터노드의 데이터 스토리지 크기 100GB ~ 2000GB 까지 10GB 단위로 입력 가능 4000GB, 6000GB 도 사용이 가능 |
workerNodeDataStorageSize | Yes | Integer | Min: 100 Max: 2000 | - 작업자노드의 데이터 스토리지 크기 100GB ~ 2000GB 까지 10GB 단위로 입력 가능 4000GB, 6000GB 도 사용이 가능 |
workerNodeCount | No | Integer | - 작업자노드 개수 작업자노드 개수는 2~8개에서 선택 가능 Dafault : 2 | |
useKdc | No | Boolean | - 로스 인증 구성 사용 여부 로스를 사용하여 Secure Hadoop 클러스터를 구성 Default: false | |
kdcRealm | Conditional | String | - KDC의 Realm 정보 useKdc가 true 일때에만 입력 useKdc가 false이면 무시됨 Relam 형태의 도메인 규칙만 허용 | |
kdcPassword | Conditional | String | - KDC admin 계정의 패스워드 useKdc가 true 일 때에만 입력 useKdc가 false이면 무시됨 | |
useBootstrapScript | No | Boolean | - Cloud Hadoop 부트스트랩 스크립트 사용 여부 Default: false | |
bootstrapScript | Conditional | String | 영문만 지원되며, 공백,특수문자는 허용하지 않음 최대 길이는 1024Bytes까지만 가능 | - Cloud Hadoop 부트스트랩 스크립트 useBootstrapScript가 true 일때에만 입력 useBootstrapScript가 false이면 무시됨 Cloud Hadoop과 연동되어 있는 버킷으로만 스크립트 수행 가능 버킷명을 제외한 폴더, 파일이름까지 입력 필요 <예시> init-script/example.sh Default: false |
useDataCatalog | No | Boolean | - Cloud Hadoop Data Catalog 사용 여부 Cloud Hadoop 하이브 메타스토어를 Data Catalog 서비스의 카탈로그를 사용하여 제공합니다. Data Catalog서비스의 Catalog상태가 정상 중인 경우에만 연동이 가능합니다. Cloud Hadoop 2.0 버전 이상만 연동이 가능합니다. Default: false | |
output | No | String | - 응답 결과의 포맷 타입 Options : xml | json Default : json |
응답
응답 데이터 타입
- CloudHadoopInstanceList 타입
CloudHadoopInstanceList extends CommonResponse |
---|
private Integer totalRows; |
private List<CloudHadoopInstance> cloudHadoopInstanceList = new ArrayList<>(); |
CloudHadoopInstance |
---|
private String cloudHadoopInstanceNo; |
private String cloudHadoopClusterName; |
private String cloudHadoopInstanceStatusName; |
private CommonCode cloudHadoopInstanceStatus; |
private CommonCode cloudHadoopInstanceOperation; |
private CloudHadoopClusterType cloudHadoopClusterType; |
private CloudHadoopVersion cloudHadoopVersion; |
private List<CloudHadoopAddOn> cloudHadoopAddOnList |
private String ambariServerHost; |
private String clusterDirectAccessAccount; |
private String loginKey; |
private String objectStorageBucket; |
private String kdcRealm; |
private String cloudHadoopImageProductCode; |
private Boolean isHa; |
private String domain; |
private AccessControlGroupNoList accessControlGroupNoList; |
private Date createDate; |
private Boolean useDataCatalog; |
private List<CloudHadoopServerInstance> cloudHadoopServerInstanceList; |
CloudHadoopAddOn |
---|
private String code; |
private String codeName; |
CloudHadoopClusterType |
---|
private String code; |
private String codeName; |
CloudHadoopVersion |
---|
private String code; |
private String codeName; |
AccessControlGroupNoList |
---|
private List<String> accessControlGroupNoList = new ArrayList<>(); |
CloudHadoopServerInstance |
---|
private String cloudHadoopServerInstanceNo; |
private String cloudHadoopServerName; |
private String cloudHadoopServerInstanceStatusName; |
private CommonCode cloudHadoopServerInstanceStatus; |
private CommonCode cloudHadoopServerInstanceOperation; |
private CommonCode cloudHadoopServerRole; |
private String regionCode; |
private String vpcNo; |
private String subnetNo; |
private Date createDate; |
private Date uptime; |
private String zoneCode; |
private Long memorySize; |
private Integer cpuCount; |
private Boolean isPublicSubnet; |
private Long dataStorageSize; |
private String cloudHadoopProductCode; |
private CommonCode dataStorageType; |
예시
호출
ncloud vhadoop createCloudHadoopInstance --regionCode KR --vpcNo **65 --cloudHadoopImageProductCode SW.VCHDP.LNX64.CNTOS.0708.HDP.15.B050 --masterNodeProductCode SVR.VCHDP.MSTDT.HIMEM.C004.M032.NET.HDD.B050.G002 --edgeNodeProductCode SVR.VCHDP.EDGND.STAND.C004.M016.NET.HDD.B050.G002 --workerNodeProductCode SVR.VCHDP.MSTDT.HICPU.C008.M016.NET.HDD.B050.G002 --cloudHadoopClusterName test*** --cloudHadoopClusterTypeCode CORE_HADOOP_WITH_SPARK --cloudHadoopAddOnCodeList PRESTO --cloudHadoopAdminUserName test-*** --cloudHadoopAdminUserPassword ******* --loginKeyName key**** --bucketName buc*** --edgeNodeSubnetNo 11** --masterNodeSubnetNo 11** --workerNodeSubnetNo 12** --masterNodeDataStorageTypeCode SSD --workerNodeDataStorageTypeCode SSD --masterNodeDataStorageSize 100 --workerNodeDataStorageSize 100 --workerNodeCount 2 --useKdc true --kdcRealm EX**LE.COM --kdcPassword ********* --useBootstrapScript true --bootstrapScript init-script/example.sh --useDataCatalog true
응답
{
"createCloudHadoopInstanceResponse": {
"totalRows": 1,
"cloudHadoopInstanceList": [
{
"cloudHadoopInstanceNo": "2775778",
"cloudHadoopClusterName": "test123",
"cloudHadoopInstanceStatusName": "creating",
"cloudHadoopInstanceStatus": {
"code": "INIT",
"codeName": "CLOUD DATABASE(VPC) Init State"
},
"cloudHadoopInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Creat OP"
},
"cloudHadoopClusterType": {
"code": "CORE_HADOOP_WITH_SPARK",
"codeName": "Core Hadoop with Spark : HDFS(3.1.1), YARN(3.1.1), Zookeeper(3.4.9), Ranger(2.0.0), HIVE(3.1.2), Hue(4.8.0), Zeppelin Notebook(0.10.1), Spark (2.4.8)"
},
"cloudHadoopVersion": {
"code": "HADOOP2.0",
"codeName": "Cloud Hadoop 2.0"
},
"cloudHadoopAddOnList": [],
"ambariServerHost": "e-001-test123-15iv-hd",
"clusterDirectAccessAccount": "sshuser",
"loginKey": "newkey",
"objectStorageBucket": "ffdd",
"cloudHadoopImageProductCode": "SW.VCHDP.LNX64.CNTOS.0708.HDP.20.B050",
"isHa": true,
"createDate": "2023-02-08T21:26:09+0900",
"accessControlGroupNoList": [],
"cloudHadoopServerInstanceList": [
{
"cloudHadoopServerName": "e-001-test123-15iv-hd",
"cloudHadoopServerRole": {
"code": "E",
"codeName": "Edge Node"
},
"cloudHadoopServerInstanceStatusName": "creating",
"cloudHadoopServerInstanceStatus": {
"code": "PEND",
"codeName": "CLOUD DATABASE(VPC) Server Pending State"
},
"cloudHadoopServerInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Server Create OP"
},
"cloudHadoopProductCode": "SVR.VCHDP.EDGND.STAND.C004.M016.NET.HDD.B050.G002",
"regionCode": "KR",
"zoneCode": "KR-2",
"vpcNo": "1665",
"subnetNo": "5746",
"isPublicSubnet": false,
"dataStorageSize": 107374182400,
"cpuCount": 4,
"memorySize": 17179869184,
"createDate": "2023-02-08T21:26:09+0900"
},
{
"cloudHadoopServerName": "m-001-test123-15it-hd",
"cloudHadoopServerRole": {
"code": "M",
"codeName": "Master Node"
},
"cloudHadoopServerInstanceStatusName": "creating",
"cloudHadoopServerInstanceStatus": {
"code": "PEND",
"codeName": "CLOUD DATABASE(VPC) Server Pending State"
},
"cloudHadoopServerInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Server Create OP"
},
"cloudHadoopProductCode": "SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002",
"regionCode": "KR",
"zoneCode": "KR-2",
"vpcNo": "1665",
"subnetNo": "5746",
"isPublicSubnet": false,
"dataStorageType": {
"code": "SSD",
"codeName": "SSD"
},
"dataStorageSize": 107374182400,
"cpuCount": 4,
"memorySize": 17179869184,
"createDate": "2023-02-08T21:26:09+0900"
},
{
"cloudHadoopServerName": "m-002-test123-15iu-hd",
"cloudHadoopServerRole": {
"code": "M",
"codeName": "Master Node"
},
"cloudHadoopServerInstanceStatusName": "creating",
"cloudHadoopServerInstanceStatus": {
"code": "PEND",
"codeName": "CLOUD DATABASE(VPC) Server Pending State"
},
"cloudHadoopServerInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Server Create OP"
},
"cloudHadoopProductCode": "SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002",
"regionCode": "KR",
"zoneCode": "KR-2",
"vpcNo": "1665",
"subnetNo": "5746",
"isPublicSubnet": false,
"dataStorageType": {
"code": "SSD",
"codeName": "SSD"
},
"dataStorageSize": 107374182400,
"cpuCount": 4,
"memorySize": 17179869184,
"createDate": "2023-02-08T21:26:09+0900"
},
{
"cloudHadoopServerName": "d-001-test123-15iw-hd",
"cloudHadoopServerRole": {
"code": "D",
"codeName": "Date Node"
},
"cloudHadoopServerInstanceStatusName": "creating",
"cloudHadoopServerInstanceStatus": {
"code": "PEND",
"codeName": "CLOUD DATABASE(VPC) Server Pending State"
},
"cloudHadoopServerInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Server Create OP"
},
"cloudHadoopProductCode": "SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002",
"regionCode": "KR",
"zoneCode": "KR-2",
"vpcNo": "1665",
"subnetNo": "5746",
"isPublicSubnet": false,
"dataStorageType": {
"code": "SSD",
"codeName": "SSD"
},
"dataStorageSize": 107374182400,
"cpuCount": 4,
"memorySize": 17179869184,
"createDate": "2023-02-08T21:26:09+0900"
},
{
"cloudHadoopServerName": "d-002-test123-15ix-hd",
"cloudHadoopServerRole": {
"code": "D",
"codeName": "Date Node"
},
"cloudHadoopServerInstanceStatusName": "creating",
"cloudHadoopServerInstanceStatus": {
"code": "PEND",
"codeName": "CLOUD DATABASE(VPC) Server Pending State"
},
"cloudHadoopServerInstanceOperation": {
"code": "CREAT",
"codeName": "CLOUD DATABASE(VPC) Server Create OP"
},
"cloudHadoopProductCode": "SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002",
"regionCode": "KR",
"zoneCode": "KR-2",
"vpcNo": "1665",
"subnetNo": "5746",
"isPublicSubnet": false,
"dataStorageType": {
"code": "SSD",
"codeName": "SSD"
},
"dataStorageSize": 107374182400,
"cpuCount": 4,
"memorySize": 17179869184,
"createDate": "2023-02-08T21:26:09+0900"
}
]
}
],
"requestId": "aa789745-34de-416c-a4c2-159482eaa9ed",
"returnCode": "0",
"returnMessage": "success"
}
}
<createCloudHadoopInstanceResponse>
<requestId>b8828eca-c3f8-4ddb-86dd-3355026b4b94</requestId>
<returnCode>0</returnCode>
<returnMessage>success</returnMessage>
<totalRows>1</totalRows>
<cloudHadoopInstanceList>
<cloudHadoopInstance>
<cloudHadoopInstanceNo>***4904</cloudHadoopInstanceNo>
<cloudHadoopClusterName>test***</cloudHadoopClusterName>
<cloudHadoopInstanceStatusName>creating</cloudHadoopInstanceStatusName>
<cloudHadoopInstanceStatus>
<code>INIT</code>
<codeName>CLOUD DATABASE(VPC) Init State</codeName>
</cloudHadoopInstanceStatus>
<cloudHadoopInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Creat OP</codeName>
</cloudHadoopInstanceOperation>
<cloudHadoopClusterType>
<code>CORE_HADOOP_WITH_SPARK</code>
<codeName>Core Hadoop with Spark : HDFS(3.1.1), YARN(3.1.1), Zookeeper(3.4.6), Ranger(1.2.0), HIVE(3.1.0), Hue(4.3.0), Zepplin Notebook(0.8.0), Spark(2.4.8)</codeName>
</cloudHadoopClusterType>
<cloudHadoopVersion>
<code>HADOOP1.6</code>
<codeName>Cloud Hadoop 1.6</codeName>
</cloudHadoopVersion>
<ambariServerHost>e-001-dasfxc-mel-hd</ambariServerHost>
<clusterDirectAccessAccount>***user</clusterDirectAccessAccount>
<loginKey>****</loginKey>
<objectStorageBucket>****</objectStorageBucket>
<cloudHadoopImageProductCode>SW.VCHDP.LNX64.CNTOS.0708.HDP.16.B050</cloudHadoopImageProductCode>
<isHa>true</isHa>
<createDate>2021-11-09T18:55:29+0900</createDate>
<accessControlGroupNoList>
<accessControlGroupNo>11728</accessControlGroupNo>
</accessControlGroupNoList>
<cloudHadoopServerInstanceList>
<cloudHadoopServerInstance>
<cloudHadoopServerName>****</cloudHadoopServerName>
<cloudHadoopServerRole>
<code>E</code>
<codeName>Edge Node</codeName>
</cloudHadoopServerRole>
<cloudHadoopServerInstanceStatusName>creating</cloudHadoopServerInstanceStatusName>
<cloudHadoopServerInstanceStatus>
<code>PEND</code>
<codeName>CLOUD DATABASE(VPC) Server Pending State</codeName>
</cloudHadoopServerInstanceStatus>
<cloudHadoopServerInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Server Create OP</codeName>
</cloudHadoopServerInstanceOperation>
<cloudHadoopProductCode>SVR.VCHDP.EDGND.STAND.C004.M016.NET.HDD.B050.G002</cloudHadoopProductCode>
<regionCode>KR</regionCode>
<zoneCode>KR-2</zoneCode>
<vpcNo>**65</vpcNo>
<subnetNo>**23</subnetNo>
<isPublicSubnet>false</isPublicSubnet>
<dataStorageSize>107374182400</dataStorageSize>
<cpuCount>4</cpuCount>
<memorySize>17179869184</memorySize>
<createDate>2021-11-09T18:55:29+0900</createDate>
</cloudHadoopServerInstance>
<cloudHadoopServerInstance>
<cloudHadoopServerName>****</cloudHadoopServerName>
<cloudHadoopServerRole>
<code>M</code>
<codeName>Master Node</codeName>
</cloudHadoopServerRole>
<cloudHadoopServerInstanceStatusName>creating</cloudHadoopServerInstanceStatusName>
<cloudHadoopServerInstanceStatus>
<code>PEND</code>
<codeName>CLOUD DATABASE(VPC) Server Pending State</codeName>
</cloudHadoopServerInstanceStatus>
<cloudHadoopServerInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Server Create OP</codeName>
</cloudHadoopServerInstanceOperation>
<cloudHadoopProductCode>SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002</cloudHadoopProductCode>
<regionCode>KR</regionCode>
<zoneCode>KR-2</zoneCode>
<vpcNo>**65</vpcNo>
<subnetNo>**23</subnetNo>
<isPublicSubnet>false</isPublicSubnet>
<dataStorageType>
<code>SSD</code>
<codeName>SSD</codeName>
</dataStorageType>
<dataStorageSize>107374182400</dataStorageSize>
<cpuCount>4</cpuCount>
<memorySize>17179869184</memorySize>
<createDate>2021-11-09T18:55:29+0900</createDate>
</cloudHadoopServerInstance>
<cloudHadoopServerInstance>
<cloudHadoopServerName>****</cloudHadoopServerName>
<cloudHadoopServerRole>
<code>M</code>
<codeName>Master Node</codeName>
</cloudHadoopServerRole>
<cloudHadoopServerInstanceStatusName>creating</cloudHadoopServerInstanceStatusName>
<cloudHadoopServerInstanceStatus>
<code>PEND</code>
<codeName>CLOUD DATABASE(VPC) Server Pending State</codeName>
</cloudHadoopServerInstanceStatus>
<cloudHadoopServerInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Server Create OP</codeName>
</cloudHadoopServerInstanceOperation>
<cloudHadoopProductCode>SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002</cloudHadoopProductCode>
<regionCode>KR</regionCode>
<zoneCode>KR-2</zoneCode>
<vpcNo>**65</vpcNo>
<subnetNo>**23</subnetNo>
<isPublicSubnet>false</isPublicSubnet>
<dataStorageType>
<code>SSD</code>
<codeName>SSD</codeName>
</dataStorageType>
<dataStorageSize>107374182400</dataStorageSize>
<cpuCount>4</cpuCount>
<memorySize>17179869184</memorySize>
<createDate>2021-11-09T18:55:29+0900</createDate>
</cloudHadoopServerInstance>
<cloudHadoopServerInstance>
<cloudHadoopServerName>****</cloudHadoopServerName>
<cloudHadoopServerRole>
<code>D</code>
<codeName>Date Node</codeName>
</cloudHadoopServerRole>
<cloudHadoopServerInstanceStatusName>creating</cloudHadoopServerInstanceStatusName>
<cloudHadoopServerInstanceStatus>
<code>PEND</code>
<codeName>CLOUD DATABASE(VPC) Server Pending State</codeName>
</cloudHadoopServerInstanceStatus>
<cloudHadoopServerInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Server Create OP</codeName>
</cloudHadoopServerInstanceOperation>
<cloudHadoopProductCode>SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002</cloudHadoopProductCode>
<regionCode>KR</regionCode>
<zoneCode>KR-2</zoneCode>
<vpcNo>**65</vpcNo>
<subnetNo>**23</subnetNo>
<isPublicSubnet>false</isPublicSubnet>
<dataStorageType>
<code>SSD</code>
<codeName>SSD</codeName>
</dataStorageType>
<dataStorageSize>107374182400</dataStorageSize>
<cpuCount>4</cpuCount>
<memorySize>17179869184</memorySize>
<createDate>2021-11-09T18:55:29+0900</createDate>
</cloudHadoopServerInstance>
<cloudHadoopServerInstance>
<cloudHadoopServerName>****</cloudHadoopServerName>
<cloudHadoopServerRole>
<code>D</code>
<codeName>Date Node</codeName>
</cloudHadoopServerRole>
<cloudHadoopServerInstanceStatusName>creating</cloudHadoopServerInstanceStatusName>
<cloudHadoopServerInstanceStatus>
<code>PEND</code>
<codeName>CLOUD DATABASE(VPC) Server Pending State</codeName>
</cloudHadoopServerInstanceStatus>
<cloudHadoopServerInstanceOperation>
<code>CREAT</code>
<codeName>CLOUD DATABASE(VPC) Server Create OP</codeName>
</cloudHadoopServerInstanceOperation>
<cloudHadoopProductCode>SVR.VCHDP.MSTDT.STAND.C004.M016.NET.HDD.B050.G002</cloudHadoopProductCode>
<regionCode>KR</regionCode>
<zoneCode>KR-2</zoneCode>
<vpcNo>**65</vpcNo>
<subnetNo>**23</subnetNo>
<isPublicSubnet>false</isPublicSubnet>
<dataStorageType>
<code>SSD</code>
<codeName>SSD</codeName>
</dataStorageType>
<dataStorageSize>107374182400</dataStorageSize>
<cpuCount>4</cpuCount>
<memorySize>17179869184</memorySize>
<createDate>2021-11-09T18:55:29+0900</createDate>
</cloudHadoopServerInstance>
</cloudHadoopServerInstanceList>
</cloudHadoopInstance>
</cloudHadoopInstanceList>
</createCloudHadoopInstanceResponse>
이 문서가 도움이 되었습니까?