Files
azuredatastudio/i18n/ads-language-pack-ko/translations/extensions/mssql.i18n.json
Alex Ma f7b9ca775a Update for language packs, (#14912)
* update DE lang pack extension strings from previous refresh

* bump lang pack versions for DE

* update for spanish langpack

* update for french langpack

* update for italian pack

* update for japanese pack

* update for korean pack

* update for Brazilian Portuguese pack

* update for Russian pack

* Update for Simplified Chinese pack

* update for Traditional Chinese pack

* added updated language packs for german and spanish

* changed vscode version

* added french and italian packs

* changes made to main

* japanese language pack added

* added korean pack

* Added Portuguese pack

* added russian pack, also small change to pt pack

* simplified chinese pack

* added traditional chinese pack

* deleted old language packs

* restore sql.i18n.json files

* Main.i18n.json reverted

* Revert sql json files

* main.i18n.json file for German updated

* updates to language packs 1

* main json for italian updated.

* update to japanese main

* finished translations for vs and sql in main.

* added ADS exclusive extensions to package.json

* fixed markdown and seti translation ids

* German language pack fixed

* Removed make from ads-language-pack-de and fixed es language pack

* french language pack fixed

* fixed italian language pack and restored typescript-basics

* removed unnecessary readme strings and nsions.

* fixed japanese pack

* Korean language pack fixed

* Portuguese language pack fixed

* fixed russian language pack

* Simplified Chinese pack fixed

* traditional chinese fixed

* restored sqlservernotebook
2021-03-31 11:08:45 -07:00

342 lines
25 KiB
JSON

{
"": [
"--------------------------------------------------------------------------------------------",
"Copyright (c) Microsoft Corporation. All rights reserved.",
"Licensed under the Source EULA. See License.txt in the project root for license information.",
"--------------------------------------------------------------------------------------------",
"Do not edit this file. It is machine generated."
],
"version": "1.0.0",
"contents": {
"package": {
"json.schemas.desc": "현재 프로젝트에서 스키마를 JSON 파일에 연결",
"json.schemas.url.desc": "현재 디렉터리에 있는 스키마의 URL 또는 상대 경로",
"json.schemas.fileMatch.desc": "JSON 파일로 스키마를 확인할 때 일치할 파일 패턴의 배열입니다.",
"json.schemas.fileMatch.item.desc": "JSON 파일로 스키마를 확인할 때 일치할 '*'를 포함할 수 있는 파일 패턴입니다.",
"json.schemas.schema.desc": "지정된 URL의 스키마 정의입니다. 스키마는 스키마 URL에 대한 액세스 방지를 위해서만 제공해야 합니다.",
"json.format.enable.desc": "기본 JSON 포맷터 사용/사용 안 함(다시 시작해야 함)",
"mssqlCluster.uploadFiles": "파일 업로드",
"mssqlCluster.mkdir": "새 디렉터리",
"mssqlCluster.deleteFiles": "삭제",
"mssqlCluster.previewFile": "미리 보기",
"mssqlCluster.saveFile": "저장",
"mssqlCluster.copyPath": "경로 복사",
"mssqlCluster.manageAccess": "액세스 관리",
"notebook.command.new": "새 Notebook",
"notebook.command.open": "Notebook 열기",
"tab.bigDataClusterDescription": "SQL Server 빅 데이터 클러스터에 대한 작업 및 정보",
"title.bigDataCluster": "SQL Server 빅 데이터 클러스터",
"title.submitSparkJob": "Spark 작업 제출",
"title.newSparkJob": "새 Spark 작업",
"title.openSparkHistory": "Spark 기록 보기",
"title.openYarnHistory": "Yarn 기록 보기",
"title.tasks": "작업",
"title.installPackages": "패키지 설치",
"title.configurePython": "Notebook용 Python 구성",
"title.searchServers": "검색: 서버",
"title.clearSearchServerResult": "검색: 검색 서버 결과 지우기",
"title.endpoints": "서비스 엔드포인트",
"title.books": "Notebook",
"title.showLogFile": "로그 파일 표시",
"mssql.configuration.title": "MSSQL 구성",
"mssql.query.displayBitAsNumber": "BIT 열을 숫자(1 또는 0)로 표시할지 여부. False이면 BIT 열을 'true' 또는 'false'로 표시합니다.",
"mssql.format.alignColumnDefinitionsInColumns": "열 정의 정렬 여부",
"mssql.format.datatypeCasing": "데이터 형식을 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부",
"mssql.format.keywordCasing": "키워드를 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부",
"mssql.format.placeCommasBeforeNextStatement": "목록의 각 문 앞에 쉼표를 표시할지 여부(예: 끝에 'mycolumn1' 대신 ', mycolumn2' 사용)",
"mssql.format.placeSelectStatementReferencesOnNewLine": "Select 문에서 개체에 대한 참조를 별도 줄에 분할할지 여부(예: 'SELECT C1, C2 FROM T1'의 경우 C1 및 C2를 별도의 줄에 표시함)",
"mssql.logDebugInfo": "[옵션] 디버그 출력을 콘솔에 로깅한 다음(보기 -> 출력), 드롭다운에서 해당 출력 채널을 선택합니다.",
"mssql.tracingLevel": "[옵션] 백 엔드 서비스의 로그 수준입니다. Azure Data Studio는 시작할 때마다 파일 이름을 생성하며 파일이 이미 있으면 로그 항목이 해당 파일에 추가됩니다. 이전 로그 파일을 정리하려면 logRetentionMinutes 및 logFilesRemovalLimit 설정을 참조하세요. 기본 tracingLevel에서는 많은 양의 로그가 기록되지 않습니다. 세부 정보 표시를 변경하면 로깅이 광범위해지고 로그의 디스크 공간 요구 사항이 커질 수 있습니다. 오류이면 중요가 포함되고 경고이면 오류가 포함되고 정보이면 경고가 포함되고 세부 정보 표시이면 정보가 포함됩니다.",
"mssql.logRetentionMinutes": "백 엔드 서비스의 로그 파일을 유지하는 시간(분)입니다. 기본값은 1주일입니다.",
"mssql.logFilesRemovalLimit": "시작 시 제거하려고 하며 mssql.logRetentionMinutes가 만료된 이전 파일의 최대 수입니다. 이 제한으로 인해 정리되지 않은 파일은 다음에 Azure Data Studio를 시작할 때 정리됩니다.",
"ignorePlatformWarning": "[옵션] 지원되지 않는 플랫폼 경고 표시 안 함",
"onprem.databaseProperties.recoveryModel": "복구 모델",
"onprem.databaseProperties.lastBackupDate": "마지막 데이터베이스 백업",
"onprem.databaseProperties.lastLogBackupDate": "마지막 로그 백업",
"onprem.databaseProperties.compatibilityLevel": "호환성 수준",
"onprem.databaseProperties.owner": "소유자",
"onprem.serverProperties.serverVersion": "버전",
"onprem.serverProperties.serverEdition": "버전",
"onprem.serverProperties.machineName": "컴퓨터 이름",
"onprem.serverProperties.osVersion": "OS 버전",
"cloud.databaseProperties.azureEdition": "버전",
"cloud.databaseProperties.serviceLevelObjective": "가격 책정 계층",
"cloud.databaseProperties.compatibilityLevel": "호환성 수준",
"cloud.databaseProperties.owner": "소유자",
"cloud.serverProperties.serverVersion": "버전",
"cloud.serverProperties.serverEdition": "형식",
"mssql.provider.displayName": "Microsoft SQL Server",
"mssql.connectionOptions.connectionName.displayName": "이름(옵션)",
"mssql.connectionOptions.connectionName.description": "연결의 사용자 지정 이름",
"mssql.connectionOptions.serverName.displayName": "서버",
"mssql.connectionOptions.serverName.description": "SQL Server 인스턴스의 이름",
"mssql.connectionOptions.databaseName.displayName": "데이터베이스",
"mssql.connectionOptions.databaseName.description": "데이터 원본에 있는 초기 카탈로그 또는 데이터베이스의 이름",
"mssql.connectionOptions.authType.displayName": "인증 유형",
"mssql.connectionOptions.authType.description": "SQL Server로 인증하는 방법을 지정합니다.",
"mssql.connectionOptions.authType.categoryValues.sqlLogin": "SQL 로그인",
"mssql.connectionOptions.authType.categoryValues.integrated": "Windows 인증",
"mssql.connectionOptions.authType.categoryValues.azureMFA": "Azure Active Directory - MFA가 지원되는 유니버설",
"mssql.connectionOptions.userName.displayName": "사용자 이름",
"mssql.connectionOptions.userName.description": "데이터 원본에 연결할 때 사용할 사용자 ID를 나타냅니다.",
"mssql.connectionOptions.password.displayName": "암호",
"mssql.connectionOptions.password.description": "데이터 원본에 연결할 때 사용할 암호를 나타냅니다.",
"mssql.connectionOptions.applicationIntent.displayName": "애플리케이션 의도",
"mssql.connectionOptions.applicationIntent.description": "서버에 연결할 때 애플리케이션 워크로드 형식을 선언합니다.",
"mssql.connectionOptions.asynchronousProcessing.displayName": "비동기 처리",
"mssql.connectionOptions.asynchronousProcessing.description": "true인 경우 .NET Framework 데이터 공급자에서 비동기 기능의 사용을 활성화합니다.",
"mssql.connectionOptions.connectTimeout.displayName": "연결 시간 제한",
"mssql.connectionOptions.connectTimeout.description": "연결 시도를 중단하고 오류를 생성하기 전 서버에 연결될 때까지의 대기 시간(초)입니다.",
"mssql.connectionOptions.currentLanguage.displayName": "현재 언어",
"mssql.connectionOptions.currentLanguage.description": "SQL Server 언어 레코드 이름",
"mssql.connectionOptions.columnEncryptionSetting.displayName": "열 암호화",
"mssql.connectionOptions.columnEncryptionSetting.description": "연결에서 모든 명령에 대한 기본 열 암호화 설정입니다.",
"mssql.connectionOptions.encrypt.displayName": "암호화",
"mssql.connectionOptions.encrypt.description": "true인 경우 서버에 인증서가 설치되어 있으면 SQL Server는 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.",
"mssql.connectionOptions.persistSecurityInfo.displayName": "보안 정보 유지",
"mssql.connectionOptions.persistSecurityInfo.description": "false이면 보안상 중요한 정보(예: 암호)를 연결의 일부로 반환하지 않습니다.",
"mssql.connectionOptions.trustServerCertificate.displayName": "서버 인증서 신뢰",
"mssql.connectionOptions.trustServerCertificate.description": "true(및 encrypt=true)인 경우 SQL Server는 서버 인증서의 유효성을 검사하지 않고 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.",
"mssql.connectionOptions.attachedDBFileName.displayName": "연결된 DB 파일 이름",
"mssql.connectionOptions.attachedDBFileName.description": "연결할 수 있는 데이터베이스의 기본 파일 이름(전체 경로 이름 포함)",
"mssql.connectionOptions.contextConnection.displayName": "컨텍스트 연결",
"mssql.connectionOptions.contextConnection.description": "true인 경우 연결이 SQL Server 컨텍스트에서 시작되어야 함을 나타냅니다. SQL Server 프로세스에서 실행 중인 경우에만 사용할 수 있습니다.",
"mssql.connectionOptions.port.displayName": "포트",
"mssql.connectionOptions.connectRetryCount.displayName": "연결 다시 시도 횟수",
"mssql.connectionOptions.connectRetryCount.description": "연결 복구 시도의 횟수",
"mssql.connectionOptions.connectRetryInterval.displayName": "연결 다시 시도 간격",
"mssql.connectionOptions.connectRetryInterval.description": "연결 복구 시도 간 지연 시간",
"mssql.connectionOptions.applicationName.displayName": "애플리케이션 이름",
"mssql.connectionOptions.applicationName.description": "애플리케이션의 이름",
"mssql.connectionOptions.workstationId.displayName": "워크스테이션 ID",
"mssql.connectionOptions.workstationId.description": "SQL Server에 연결하는 워크스테이션의 이름",
"mssql.connectionOptions.pooling.displayName": "풀링",
"mssql.connectionOptions.pooling.description": "true이면 해당 풀에서 연결 개체를 끌어 오거나 필요한 경우 연결 개체를 만들어 해당 풀에 추가합니다.",
"mssql.connectionOptions.maxPoolSize.displayName": "최대 풀 크기",
"mssql.connectionOptions.maxPoolSize.description": "풀에서 허용되는 최대 연결 수",
"mssql.connectionOptions.minPoolSize.displayName": "최소 풀 크기",
"mssql.connectionOptions.minPoolSize.description": "풀에서 허용되는 최소 연결 수",
"mssql.connectionOptions.loadBalanceTimeout.displayName": "부하 분산 시간 제한",
"mssql.connectionOptions.loadBalanceTimeout.description": "이 연결이 제거되기 전에 풀에서 활성화되어 있는 최소 시간(초)입니다.",
"mssql.connectionOptions.replication.displayName": "복제",
"mssql.connectionOptions.replication.description": "복제에서 SQL Server가 사용합니다.",
"mssql.connectionOptions.attachDbFilename.displayName": "DB 파일 이름 연결",
"mssql.connectionOptions.failoverPartner.displayName": "장애 조치(failover) 파트너",
"mssql.connectionOptions.failoverPartner.description": "장애 조치(failover) 파트너 역할을 하는 SQL Server 인스턴스의 이름 또는 네트워크 주소",
"mssql.connectionOptions.multiSubnetFailover.displayName": "다중 서브넷 장애 조치(failover)",
"mssql.connectionOptions.multipleActiveResultSets.displayName": "여러 개의 활성 결과 집합",
"mssql.connectionOptions.multipleActiveResultSets.description": "true인 경우 한 연결에서 여러 결과 집합을 반환하고 읽을 수 있습니다.",
"mssql.connectionOptions.packetSize.displayName": "패킷 크기",
"mssql.connectionOptions.packetSize.description": "SQL Server 인스턴스와 통신하는 데 사용되는 네트워크 패킷의 크기(바이트)",
"mssql.connectionOptions.typeSystemVersion.displayName": "형식 시스템 버전",
"mssql.connectionOptions.typeSystemVersion.description": "공급자가 DataReader를 통해 노출할 서버 형식 시스템을 나타냅니다."
},
"dist/localizedConstants": {
"msgMissingNodeContext": "노드가 전달되지 않고 호출된 노드 명령",
"mssql.manageAccessTitle": "액세스 관리",
"mssql.locationTitle": "위치: ",
"mssql.permissionsTitle": "권한",
"mssql.ownerPostfix": " - 소유자",
"mssql.owningGroupPostfix": " - 소유 그룹",
"mssql.everyone": "모든 사용자",
"mssql.userLabel": "사용자",
"mssql.groupLabel": "그룹",
"mssql.accessHeader": "액세스",
"mssql.defaultHeader": "기본값",
"mssql.delete": "삭제",
"mssql.stickyHeader": "고정",
"mssql.inheritDefaultsLabel": "기본값 상속",
"mssql.readHeader": "읽기",
"mssql.writeHeader": "쓰기",
"mssql.executeHeader": "실행",
"mssql.addUserOrGroup": "사용자 또는 그룹 추가",
"mssql.enterNamePlaceholder": "이름 입력",
"mssql.addLabel": "추가",
"mssql.namedUsersAndGroups": "명명된 사용자 및 그룹",
"mssql.apply": "적용",
"mssql.applyRecursively": "재귀적으로 적용",
"mssql.errorApplyingAclChanges": "변경 내용을 적용하는 동안 예기치 않은 오류가 발생했습니다. {0}",
"sparkJobSubmission_LocalFileDestinationHint": "로컬 파일이 HDFS에 업로드됩니다. ",
"sparkJobSubmission_SubmissionEndMessage": ".......................... Spark 작업 제출 종료 ................................................",
"sparkJobSubmission_PrepareUploadingFile": "로컬 {0}에서 HDFS 폴더로 파일 업로드 중: {1}",
"sparkJobSubmission_UploadingFileSucceeded": "클러스터에 파일을 업로드했습니다.",
"sparkJobSubmission_UploadingFileFailed": "클러스터에 파일을 업로드하지 못했습니다. {0}",
"sparkJobSubmission_PrepareSubmitJob": "{0} 작업을 제출하는 중... ",
"sparkJobSubmission_SubmitJobFinished": "Spark 작업을 제출했습니다.",
"sparkJobSubmission_SubmitJobFailed": "Spark 작업 {0}을(를) 제출하지 못했습니다. ",
"sparkJobSubmission_YarnUIMessage": "YarnUI URL: {0} ",
"sparkJobSubmission_SparkHistoryLinkMessage": "Spark 기록 URL: {0} ",
"sparkJobSubmission_GetApplicationIdFailed": "애플리케이션 ID를 가져오지 못했습니다. {0}",
"sparkJobSubmission_LocalFileNotExisted": "로컬 파일 {0}이(가) 없습니다. ",
"sparkJobSubmission_NoSqlBigDataClusterFound": "SQL Server 빅 데이터 클러스터를 찾을 수 없습니다."
},
"dist/objectExplorerNodeProvider/fileSources": {
"maxSizeNotice": "알림: 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. ",
"maxSizeReached": "이 파일은 미리 보기를 위해 {0}에서 잘렸습니다."
},
"dist/objectExplorerNodeProvider/command": {
"progress": "$(sync~spin) {0}...",
"cancelTooltip": "취소",
"cancel": "작업 취소 여부",
"mssql.searchServers": "서버 이름 검색"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionService": {
"sparkJobSubmission_LivyNoBatchIdReturned": "응답에서 Spark 작업 일괄 처리 ID가 반환되지 않았습니다. {0}[오류] {1}",
"sparkJobSubmission_LivyNoLogReturned": "응답 내에 로그가 반환되지 않았습니다. {0}[오류] {1}"
},
"dist/objectExplorerNodeProvider/hdfsCommands": {
"allFiles": "모든 파일",
"lblUploadFiles": "업로드",
"uploading": "HDFS로 파일 업로드 중",
"uploadCanceled": "업로드 작업이 취소되었습니다.",
"uploadError": "파일 업로드 오류: {0}",
"makingDir": "디렉터리를 만드는 중",
"mkdirCanceled": "작업이 취소되었습니다.",
"mkDirError": "디렉터리 만들기 오류: {0}",
"enterDirName": "디렉터리 이름 입력",
"deleteError": "파일 삭제 오류: {0}",
"msgDeleteFolder": "이 폴더와 해당 내용을 삭제하시겠습니까?",
"msgDeleteFile": "이 파일을 삭제하시겠습니까?",
"saving": "HDFS 파일 저장 중",
"saveCanceled": "저장 작업이 취소되었습니다.",
"saveError": "파일 저장 오류: {0}",
"previewing": "미리 보기 생성 중",
"previewError": "파일 미리 보기 오류: {0}",
"copyPathError": "경로 복사 오류: {0}",
"manageAccessError": "액세스 관리 대화 상자를 여는 동안 예기치 않은 오류가 발생했습니다. {0}"
},
"dist/hdfs/webhdfs": {
"webhdfs.invalidDataStructure": "잘못된 데이터 구조",
"webhdfs.missingProperties": "누락된 옵션으로 인해 WebHDFS 클라이언트를 만들 수 없습니다. ${0}",
"webhdfs.undefinedArgument": "'${0}'이(가) 정의되지 않았습니다.",
"webhdfs.httpError400": "잘못된 요청",
"webhdfs.httpError401": "권한 없음",
"webhdfs.httpError403": "금지됨",
"webhdfs.httpError404": "찾을 수 없음",
"webhdfs.httpError500": "내부 서버 오류",
"webhdfs.unknownError": "알 수 없는 오류",
"webhdfs.unexpectedRedirect": "예기치 않은 리디렉션"
},
"dist/objectExplorerNodeProvider/connection": {
"connectionInfoUndefined": "ConnectionInfo가 정의되지 않았습니다.",
"connectionInfoOptionsUndefined": "ConnectionInfo.options가 정의되지 않았습니다.",
"connectionInfoOptionsMissingProperties": "connectionInfo.options에서 일부 속성이 누락되었습니다. {0}"
},
"dist/telemetry": {
"viewKnownIssuesText": "알려진 문제 보기",
"serviceCrashMessage": "{0} 구성 요소가 예기치 않게 종료되었습니다. Azure Data Studio를 다시 시작하세요."
},
"dist/main": {
"msgSampleCodeDataFrame": "이 샘플 코드는 파일을 데이터 프레임에 로드하고 처음 10개의 결과를 표시합니다.",
"notebookFileType": "Notebook",
"unsupportedFileType": ".ipynb Notebook만 지원됩니다.",
"fileNotFound": "지정된 파일을 찾을 수 없습니다."
},
"dist/hdfs/hdfsModel": {
"mssql.recursivePermissionOpStarted": "'{0}'에서 권한 변경 내용을 재귀적으로 적용하는 중",
"mssql.recursivePermissionOpSucceeded": "권한 변경 내용을 적용했습니다.",
"mssql.recursivePermissionOpProgress": "권한 변경 내용을 '{0}'에 적용하는 중입니다.",
"mssql.recursivePermissionOpError": "권한 변경 내용 적용 오류: {0}"
},
"dist/prompts/confirm": {
"msgYes": "예",
"msgNo": "아니요"
},
"dist/sparkFeature/dialog/dialogCommands": {
"selectOtherServer": "다른 SQL Server 선택",
"sparkJobSubmission_PleaseSelectSqlWithCluster": "빅 데이터 클러스터가 있는 SQL Server를 선택하세요.",
"sparkJobSubmission_NoSqlSelected": "SQL Server를 선택하지 않았습니다.",
"errorNotSqlBigDataCluster": "선택한 서버가 SQL Server 빅 데이터 클러스터에 속하지 않습니다.",
"sparkJobSubmission_GetFilePathFromSelectedNodeFailed": "파일 경로 가져오기 오류: {0}"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionDialog": {
"sparkJobSubmission_SparkJobSubmissionDialogInitializeError": "SparkJobSubmissionDialog에 대한 매개 변수가 잘못되었습니다.",
"sparkJobSubmission_DialogTitleNewJob": "새 작업",
"sparkJobSubmission_DialogCancelButton": "취소",
"sparkJobSubmission_DialogSubmitButton": "제출",
"sparkJobSubmission_SubmitSparkJob": "{0} Spark 작업 제출:",
"sparkJobSubmission_SubmissionStartMessage": ".......................... Spark 작업 제출 시작 ..................................."
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionModel": {
"sparkJobSubmission_SparkJobSubmissionModelInitializeError": "SparkJobSubmissionModel의 매개 변수가 잘못되었습니다.",
"sparkJobSubmission_submissionArgsIsInvalid": "submissionArgs가 잘못되었습니다. ",
"sparkJobSubmission_LivyBatchIdIsInvalid": "livyBatchId가 잘못되었습니다. ",
"sparkJobSubmission_GetApplicationIdTimeOut": "애플리케이션 ID 시간 제한을 가져옵니다. {0}[로그] {1}",
"sparkJobSubmission_localFileOrFolderNotSpecified.": "localFilePath 또는 hdfsFolderPath 속성을 지정하지 않았습니다. ",
"sparkJobSubmission_PathNotSpecified.": "속성 경로를 지정하지 않았습니다. "
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkConfigurationTab": {
"sparkJobSubmission_GeneralTabName": "일반",
"sparkJobSubmission_JobNamePlaceHolder": "이름 입력...",
"sparkJobSubmission_JobName": "작업 이름",
"sparkJobSubmission_SparkCluster": "Spark 클러스터",
"sparkJobSubmission_FilePathPlaceHolder": ".jar 또는 .py 파일의 경로",
"sparkJobSubmission_LocalFileDestinationHintWithPath": "선택한 로컬 파일이 HDFS에 업로드됩니다. {0}",
"sparkJobSubmission_MainFilePath": "JAR/py 파일",
"sparkJobSubmission_MainClass": "주 클래스",
"sparkJobSubmission_Arguments": "인수",
"sparkJobSubmission_ArgumentsTooltip": "주 클래스에 사용되는 명령줄 인수입니다. 여러 인수는 공백으로 구분해야 합니다.",
"sparkJobSubmission_NotSpecifyJobName": "속성 작업 이름을 지정하지 않았습니다.",
"sparkJobSubmission_NotSpecifyJARPYPath": "속성 JAR/py 파일을 지정하지 않았습니다.",
"sparkJobSubmission_NotSpecifyMainClass": "속성 주 클래스를 지정하지 않았습니다.",
"sparkJobSubmission_HDFSFileNotExistedWithPath": "{0}이(가) 클러스터에 없거나 예외가 throw되었습니다. ",
"sparkJobSubmission_HDFSFileNotExisted": "지정된 HDFS 파일이 없습니다. ",
"sparkSelectLocalFile": "선택",
"sparkJobSubmission_SelectFileError": "오류로 인한 파일 찾기 오류: {0}"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkAdvancedTab": {
"sparkJobSubmission_AdvancedTabName": "고급",
"sparkJobSubmission_ReferenceJarList": "참조 Jar",
"sparkJobSubmission_ReferenceJarListToolTip": "실행기 작업 디렉터리에 배치할 Jar입니다. Jar 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.",
"sparkJobSubmission_ReferencePyList": "참조 py 파일",
"sparkJobSubmission_ReferencePyListTooltip": "실행기 작업 디렉터리에 배치할 Py 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.",
"sparkJobSubmission_ReferenceFilesList": "참조 파일",
"sparkJobSubmission_ReferenceFilesListTooltip": "실행기 작업 디렉터리에 배치할 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다."
},
"dist/objectExplorerNodeProvider/objectExplorerNodeProvider": {
"prmptPwd": "HDFS에 연결하려면 암호를 제공하세요.",
"sessionNotFound": "{0} 노드의 세션이 없습니다.",
"notifyError": "노드 변경 알리기 오류: {0}",
"hdfsFolder": "HDFS",
"rootLabel": "루트"
},
"dist/objectExplorerNodeProvider/hdfsProvider": {
"errorExpanding": "오류: {0}",
"errDeleteConnectionNode": "연결을 삭제할 수 없습니다. 하위 폴더와 파일만 삭제할 수 있습니다."
},
"dist/objectExplorerNodeProvider/cancelableStream": {
"streamCanceled": "사용자가 취소한 스트림 작업"
},
"dist/dashboard/serviceEndpoints": {
"grafana": "메트릭 대시보드",
"kibana": "로그 검색 대시보드",
"sparkHistory": "Spark 작업 관리 및 모니터링 대시보드",
"yarnHistory": "Spark 진단 및 모니터링 대시보드",
"copyText": "복사",
"endpoint.appproxy": "애플리케이션 프록시",
"endpoint.controller": "클러스터 관리 서비스",
"endpoint.gateway": "HDFS 파일에 액세스하기 위한 게이트웨이, Spark",
"endpoint.managementproxy": "관리 프록시",
"endpoint.mgmtproxy": "관리 프록시",
"endpoint.sqlServerEndpoint": "SQL Server 마스터 인스턴스 프런트 엔드",
"endpoint.grafana": "메트릭 대시보드",
"endpoint.kibana": "로그 검색 대시보드",
"endpoint.yarnHistory": "Spark 진단 및 모니터링 대시보드",
"endpoint.sparkHistory": "Spark 작업 관리 및 모니터링 대시보드",
"endpoint.webhdfs": "HDFS 파일 시스템 프록시",
"endpoint.livy": "Spark 문, 작업, 애플리케이션 실행을 위한 프록시"
},
"dist/sqlToolsServer": {
"serviceStartedStatusMsg": "{0}이(가) 시작됨",
"startingServiceStatusMsg": "{0}을(를) 시작하는 중",
"failedToStartServiceErrorMsg": "{0}을(를) 시작하지 못함",
"installingServiceChannelMsg": "{1}에 {0} 설치 중",
"installingServiceStatusMsg": "{0} 설치 중",
"installedServiceChannelMsg": "설치된 {0}",
"downloadingServiceChannelMsg": "{0} 다운로드 중",
"downloadingServiceSizeChannelMsg": "({0}KB)",
"downloadingServiceStatusMsg": "{0} 다운로드 중",
"downloadServiceDoneChannelMsg": "{0} 설치 완료"
}
}
}