Associate schemas to JSON files in the current project 현재 프로젝트에서 스키마를 JSON 파일에 연결 A URL to a schema or a relative path to a schema in the current directory 현재 디렉터리에 있는 스키마의 URL 또는 상대 경로 An array of file patterns to match against when resolving JSON files to schemas. JSON 파일로 스키마를 확인할 때 일치할 파일 패턴의 배열입니다. A file pattern that can contain '*' to match against when resolving JSON files to schemas. JSON 파일로 스키마를 확인할 때 일치할 '*'를 포함할 수 있는 파일 패턴입니다. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. 지정된 URL의 스키마 정의입니다. 스키마는 스키마 URL에 대한 액세스 방지를 위해서만 제공해야 합니다. Enable/disable default JSON formatter (requires restart) 기본 JSON 포맷터 사용/사용 안 함(다시 시작해야 함) Upload files 파일 업로드 New directory 새 디렉터리 Delete 삭제 Preview 미리 보기 Save 저장 Copy Path 경로 복사 Manage Access 액세스 관리 New Notebook 새 Notebook Open Notebook Notebook 열기 Tasks and information about your SQL Server Big Data Cluster SQL Server 빅 데이터 클러스터에 대한 작업 및 정보 SQL Server Big Data Cluster SQL Server 빅 데이터 클러스터 Submit Spark Job Spark 작업 제출 New Spark Job 새 Spark 작업 View Spark History Spark 기록 보기 View Yarn History Yarn 기록 보기 Tasks 작업 Install Packages 패키지 설치 Configure Python for Notebooks Notebook용 Python 구성 Cluster Dashboard 클러스터 대시보드 Search: Servers 검색: 서버 Search: Clear Search Server Results 검색: 검색 서버 결과 지우기 Service Endpoints 서비스 엔드포인트 Notebooks Notebook Show Log File 로그 파일 표시 Disabled 사용 안 함 Enabled 사용 Export Notebook as SQL Notebook을 SQL로 내보내기 Export SQL as Notebook SQL을 Notebook으로 내보내기 MSSQL configuration MSSQL 구성 Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' BIT 열을 숫자(1 또는 0)로 표시할지 여부. False이면 BIT 열을 'true' 또는 'false'로 표시합니다. Number of XML characters to store after running a query 쿼리를 실행한 후 저장할 XML 문자 수 Should column definitions be aligned? 열 정의 정렬 여부 Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) 데이터 형식을 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부 Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) 키워드를 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부 should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' 목록의 각 문 앞에 쉼표를 표시할지 여부(예: 끝에 'mycolumn1' 대신 ', mycolumn2' 사용) Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Select 문에서 개체에 대한 참조를 별도 줄에 분할할지 여부(예: 'SELECT C1, C2 FROM T1'의 경우 C1 및 C2를 별도의 줄에 표시함) [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [옵션] 디버그 출력을 콘솔에 로깅한 다음(보기 -> 출력), 드롭다운에서 해당 출력 채널을 선택합니다. [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [옵션] 백 엔드 서비스의 로그 수준입니다. Azure Data Studio는 시작할 때마다 파일 이름을 생성하며 파일이 이미 있으면 로그 항목이 해당 파일에 추가됩니다. 이전 로그 파일을 정리하려면 logRetentionMinutes 및 logFilesRemovalLimit 설정을 참조하세요. 기본 tracingLevel에서는 많은 양의 로그가 기록되지 않습니다. 세부 정보 표시를 변경하면 로깅이 광범위해지고 로그의 디스크 공간 요구 사항이 커질 수 있습니다. 오류이면 중요가 포함되고 경고이면 오류가 포함되고 정보이면 경고가 포함되고 세부 정보 표시이면 정보가 포함됩니다. Number of minutes to retain log files for backend services. Default is 1 week. 백 엔드 서비스의 로그 파일을 유지하는 시간(분)입니다. 기본값은 1주일입니다. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. 시작 시 제거하려고 하며 mssql.logRetentionMinutes가 만료된 이전 파일의 최대 수입니다. 이 제한으로 인해 정리되지 않은 파일은 다음에 Azure Data Studio를 시작할 때 정리됩니다. Should IntelliSense be enabled IntelliSense 사용 여부 Should IntelliSense error checking be enabled IntelliSense 오류 검사 사용 여부 Should IntelliSense suggestions be enabled IntelliSense 제안 사용 여부 Should IntelliSense quick info be enabled IntelliSense 빠른 정보 사용 여부 Should IntelliSense suggestions be lowercase IntelliSense 제안을 소문자로 표시할지 여부 Maximum number of rows to return before the server stops processing your query. 서버가 쿼리 처리를 중지하기 전에 반환할 최대 행 수입니다. Maximum size of text and ntext data returned from a SELECT statement SELECT 문에서 반환되는 text 및 ntext 데이터의 최대 크기 An execution time-out of 0 indicates an unlimited wait (no time-out) 실행 시간 제한이 0이면 무제한 대기(시간 제한 없음)를 나타냅니다. Enable SET NOCOUNT option SET NOCOUNT 옵션 사용 Enable SET NOEXEC option SET NOEXEC 옵션 사용 Enable SET PARSEONLY option SET PARSEONLY 옵션 사용 Enable SET ARITHABORT option SET ARITHABORT 옵션 사용 Enable SET STATISTICS TIME option SET STATISTICS TIME 옵션 사용 Enable SET STATISTICS IO option SET STATISTICS IO 옵션 사용 Enable SET XACT_ABORT ON option SET XACT_ABORT ON 옵션 사용 Enable SET TRANSACTION ISOLATION LEVEL option SET TRANSACTION ISOLATION LEVEL 옵션 사용 Enable SET DEADLOCK_PRIORITY option SET DEADLOCK_PRIORITY 옵션 사용 Enable SET LOCK TIMEOUT option (in milliseconds) SET LOCK TIMEOUT 옵션 사용(밀리초) Enable SET QUERY_GOVERNOR_COST_LIMIT SET QUERY_GOVERNOR_COST_LIMIT 사용 Enable SET ANSI_DEFAULTS SET ANSI_DEFAULTS 사용 Enable SET QUOTED_IDENTIFIER SET QUOTED_IDENTIFIER 사용 Enable SET ANSI_NULL_DFLT_ON SET ANSI_NULL_DFLT_ON 사용 Enable SET IMPLICIT_TRANSACTIONS SET IMPLICIT_TRANSACTIONS 사용 Enable SET CURSOR_CLOSE_ON_COMMIT SET CURSOR_CLOSE_ON_COMMIT 사용 Enable SET ANSI_PADDING SET ANSI_PADDING 사용 Enable SET ANSI_WARNINGS SET ANSI_WARNINGS 사용 Enable SET ANSI_NULLS SET ANSI_NULLS 사용 Enable Parameterization for Always Encrypted Always Encrypted에 매개 변수화 사용 [Optional] Do not show unsupported platform warnings [옵션] 지원되지 않는 플랫폼 경고 표시 안 함 Recovery Model 복구 모델 Last Database Backup 마지막 데이터베이스 백업 Last Log Backup 마지막 로그 백업 Compatibility Level 호환성 수준 Owner 소유자 Version 버전 Edition 버전 Computer Name 컴퓨터 이름 OS Version OS 버전 Edition 버전 Pricing Tier 가격 책정 계층 Compatibility Level 호환성 수준 Owner 소유자 Version 버전 Type 형식 Microsoft SQL Server Microsoft SQL Server Name (optional) 이름(옵션) Custom name of the connection 연결의 사용자 지정 이름 Server 서버 Name of the SQL Server instance SQL Server 인스턴스의 이름 Database 데이터베이스 The name of the initial catalog or database int the data source 데이터 원본에 있는 초기 카탈로그 또는 데이터베이스의 이름 Authentication type 인증 유형 Specifies the method of authenticating with SQL Server SQL Server로 인증하는 방법을 지정합니다. SQL Login SQL 로그인 Windows Authentication Windows 인증 Azure Active Directory - Universal with MFA support Azure Active Directory - MFA가 지원되는 유니버설 User name 사용자 이름 Indicates the user ID to be used when connecting to the data source 데이터 원본에 연결할 때 사용할 사용자 ID를 나타냅니다. Password 암호 Indicates the password to be used when connecting to the data source 데이터 원본에 연결할 때 사용할 암호를 나타냅니다. Application intent 애플리케이션 의도 Declares the application workload type when connecting to a server 서버에 연결할 때 애플리케이션 워크로드 형식을 선언합니다. Asynchronous processing 비동기 처리 When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider true인 경우 .NET Framework 데이터 공급자에서 비동기 기능의 사용을 활성화합니다. Connect timeout 연결 시간 제한 The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error 연결 시도를 중단하고 오류를 생성하기 전 서버에 연결될 때까지의 대기 시간(초)입니다. Current language 현재 언어 The SQL Server language record name SQL Server 언어 레코드 이름 Always Encrypted Always Encrypted Enables or disables Always Encrypted for the connection 연결에 Always Encrypted 기능 사용 또는 사용 안 함 Attestation Protocol 증명 프로토콜 Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves 보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 프로토콜 지정 Azure Attestation Azure Attestation Host Guardian Service 호스트 보호 서비스 Enclave Attestation URL Enclave 증명 URL Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves 보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 엔드포인트 지정 Encrypt 암호화 When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed true인 경우 서버에 인증서가 설치되어 있으면 SQL Server는 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다. Persist security info 보안 정보 유지 When false, security-sensitive information, such as the password, is not returned as part of the connection false이면 보안상 중요한 정보(예: 암호)를 연결의 일부로 반환하지 않습니다. Trust server certificate 서버 인증서 신뢰 When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate true(및 encrypt=true)인 경우 SQL Server는 서버 인증서의 유효성을 검사하지 않고 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다. Attached DB file name 연결된 DB 파일 이름 The name of the primary file, including the full path name, of an attachable database 연결할 수 있는 데이터베이스의 기본 파일 이름(전체 경로 이름 포함) Context connection 컨텍스트 연결 When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process true인 경우 연결이 SQL Server 컨텍스트에서 시작되어야 함을 나타냅니다. SQL Server 프로세스에서 실행 중인 경우에만 사용할 수 있습니다. Port 포트 Connect retry count 연결 다시 시도 횟수 Number of attempts to restore connection 연결 복구 시도의 횟수 Connect retry interval 연결 다시 시도 간격 Delay between attempts to restore connection 연결 복구 시도 간 지연 시간 Application name 애플리케이션 이름 The name of the application 애플리케이션의 이름 Workstation Id 워크스테이션 ID The name of the workstation connecting to SQL Server SQL Server에 연결하는 워크스테이션의 이름 Pooling 풀링 When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool true이면 해당 풀에서 연결 개체를 끌어 오거나 필요한 경우 연결 개체를 만들어 해당 풀에 추가합니다. Max pool size 최대 풀 크기 The maximum number of connections allowed in the pool 풀에서 허용되는 최대 연결 수 Min pool size 최소 풀 크기 The minimum number of connections allowed in the pool 풀에서 허용되는 최소 연결 수 Load balance timeout 부하 분산 시간 제한 The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed 이 연결이 제거되기 전에 풀에서 활성화되어 있는 최소 시간(초)입니다. Replication 복제 Used by SQL Server in Replication 복제에서 SQL Server가 사용합니다. Attach DB filename DB 파일 이름 연결 Failover partner 장애 조치(failover) 파트너 The name or network address of the instance of SQL Server that acts as a failover partner 장애 조치(failover) 파트너 역할을 하는 SQL Server 인스턴스의 이름 또는 네트워크 주소 Multi subnet failover 다중 서브넷 장애 조치(failover) Multiple active result sets 여러 개의 활성 결과 집합 When true, multiple result sets can be returned and read from one connection true인 경우 한 연결에서 여러 결과 집합을 반환하고 읽을 수 있습니다. Packet size 패킷 크기 Size in bytes of the network packets used to communicate with an instance of SQL Server SQL Server 인스턴스와 통신하는 데 사용되는 네트워크 패킷의 크기(바이트) Type system version 형식 시스템 버전 Indicates which server type system the provider will expose through the DataReader 공급자가 DataReader를 통해 공개할 서버 유형 시스템을 나타냄 Name 이름 Status 상태 Size (MB) 크기(MB) Last backup 마지막 백업 Name 이름 Node Command called without any node passed 노드가 전달되지 않고 호출된 노드 명령 Manage Access 액세스 관리 Location : 위치: Permissions 권한 - Owner - 소유자 Owner 소유자 Group 그룹 - Owning Group - 소유 그룹 Everyone else 모든 사용자 User 사용자 Group 그룹 Access 액세스 Default 기본값 Delete 삭제 Sticky Bit 고정 비트 Inherit Defaults 기본값 상속 Read 읽기 Write 쓰기 Execute 실행 Add User or Group 사용자 또는 그룹 추가 Enter name 이름 입력 Add 추가 Named Users and Groups 명명된 사용자 및 그룹 Default User and Groups 기본 사용자 및 그룹 User or Group Icon 사용자 또는 그룹 아이콘 Apply 적용 Apply Recursively 재귀적으로 적용 Unexpected error occurred while applying changes : {0} 변경 내용을 적용하는 동안 예기치 않은 오류가 발생했습니다. {0} Local file will be uploaded to HDFS. 로컬 파일이 HDFS에 업로드됩니다. .......................... Submit Spark Job End ............................ .......................... Spark 작업 제출 종료 ................................................ Uploading file from local {0} to HDFS folder: {1} 로컬 {0}에서 HDFS 폴더로 파일 업로드 중: {1} Upload file to cluster Succeeded! 클러스터에 파일을 업로드했습니다. Upload file to cluster Failed. {0} 클러스터에 파일을 업로드하지 못했습니다. {0} Submitting job {0} ... {0} 작업을 제출하는 중... The Spark Job has been submitted. Spark 작업을 제출했습니다. Spark Job Submission Failed. {0} Spark 작업 {0}을(를) 제출하지 못했습니다. YarnUI Url: {0} YarnUI URL: {0} Spark History Url: {0} Spark 기록 URL: {0} Get Application Id Failed. {0} 애플리케이션 ID를 가져오지 못했습니다. {0} Local file {0} does not existed. 로컬 파일 {0}이(가) 없습니다. No SQL Server Big Data Cluster found. SQL Server 빅 데이터 클러스터를 찾을 수 없습니다. Please connect to the Spark cluster before View {0} History. {0} 기록을 보려면 먼저 Spark 클러스터에 연결하세요. NOTICE: This file has been truncated at {0} for preview. 알림: 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. The file has been truncated at {0} for preview. 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. $(sync~spin) {0}... $(sync~spin) {0}... Cancel 취소 Cancel operation? 작업 취소 여부 Search Server Names 서버 이름 검색 No Spark job batch id is returned from response.{0}[Error] {1} 응답에서 Spark 작업 일괄 처리 ID가 반환되지 않았습니다. {0}[오류] {1} No log is returned within response.{0}[Error] {1} 응답 내에 로그가 반환되지 않았습니다. {0}[오류] {1} {0}Please provide the username to connect to the BDC Controller: {0}BDC 컨트롤러에 연결하려면 사용자 이름을 제공하세요. Please provide the password to connect to the BDC Controller BDC 컨트롤러에 연결하려면 암호를 제공하세요. Error: {0}. 오류: {0}. Username and password are required 사용자 이름과 암호가 필요합니다. All Files 모든 파일 Upload 업로드 Uploading files to HDFS HDFS로 파일 업로드 중 Upload operation was canceled 업로드 작업이 취소되었습니다. Error uploading files: {0} 파일 업로드 오류: {0} Creating directory 디렉터리를 만드는 중 Operation was canceled 작업이 취소되었습니다. Error on making directory: {0} 디렉터리 만들기 오류: {0} Enter directory name 디렉터리 이름 입력 Error on deleting files: {0} 파일 삭제 오류: {0} Are you sure you want to delete this folder and its contents? 이 폴더와 해당 내용을 삭제하시겠습니까? Are you sure you want to delete this file? 이 파일을 삭제하시겠습니까? Saving HDFS Files HDFS 파일 저장 중 Save operation was canceled 저장 작업이 취소되었습니다. Error on saving file: {0} 파일 저장 오류: {0} Generating preview 미리 보기 생성 중 Error on previewing file: {0} 파일 미리 보기 오류: {0} Error on copying path: {0} 경로 복사 오류: {0} An unexpected error occurred while opening the Manage Access dialog: {0} 액세스 관리 대화 상자를 여는 동안 예기치 않은 오류가 발생했습니다. {0} Invalid Data Structure 잘못된 데이터 구조 Unable to create WebHDFS client due to missing options: ${0} 누락된 옵션으로 인해 WebHDFS 클라이언트를 만들 수 없습니다. ${0} '${0}' is undefined. '${0}'이(가) 정의되지 않았습니다. Bad Request 잘못된 요청 Unauthorized 권한 없음 Forbidden 금지됨 Not Found 찾을 수 없음 Internal Server Error 내부 서버 오류 Unknown Error 알 수 없는 오류 Unexpected Redirect 예기치 않은 리디렉션 ConnectionInfo is undefined. ConnectionInfo가 정의되지 않았습니다. ConnectionInfo.options is undefined. ConnectionInfo.options가 정의되지 않았습니다. Some missing properties in connectionInfo.options: {0} connectionInfo.options에서 일부 속성이 누락되었습니다. {0} View Known Issues 알려진 문제 보기 {0} component exited unexpectedly. Please restart Azure Data Studio. {0} 구성 요소가 예기치 않게 종료되었습니다. Azure Data Studio를 다시 시작하세요. This sample code loads the file into a data frame and shows the first 10 results. 이 샘플 코드는 파일을 데이터 프레임에 로드하고 처음 10개의 결과를 표시합니다. An error occurred converting the SQL document to a Notebook. Error : {0} SQL 문서를 Notebook으로 변환하는 동안 오류가 발생했습니다. 오류: {0} An error occurred converting the Notebook document to SQL. Error : {0} Notebook 문서를 SQL로 변환하는 동안 오류가 발생했습니다. 오류: {0} Notebooks Notebook Only .ipynb Notebooks are supported .ipynb Notebook만 지원됩니다. Could not find the controller endpoint for this instance 이 인스턴스의 컨트롤러 엔드포인트를 찾을 수 없음 Applying permission changes recursively under '{0}' '{0}'에서 권한 변경 내용을 재귀적으로 적용하는 중 Permission changes applied successfully. 권한 변경 내용을 적용했습니다. Applying permission changes to '{0}'. 권한 변경 내용을 '{0}'에 적용하는 중입니다. Error applying permission changes: {0} 권한 변경 내용 적용 오류: {0} Yes No 아니요 Select other SQL Server 다른 SQL Server 선택 Please select SQL Server with Big Data Cluster. 빅 데이터 클러스터가 있는 SQL Server를 선택하세요. No SQL Server is selected. SQL Server를 선택하지 않았습니다. The selected server does not belong to a SQL Server Big Data Cluster 선택한 서버가 SQL Server 빅 데이터 클러스터에 속하지 않습니다. Error Get File Path: {0} 파일 경로 가져오기 오류: {0} Parameters for SparkJobSubmissionDialog is illegal SparkJobSubmissionDialog에 대한 매개 변수가 잘못되었습니다. New Job 새 작업 Cancel 취소 Submit 제출 {0} Spark Job Submission: {0} Spark 작업 제출: .......................... Submit Spark Job Start .......................... .......................... Spark 작업 제출 시작 ................................... Parameters for SparkJobSubmissionModel is illegal SparkJobSubmissionModel의 매개 변수가 잘못되었습니다. submissionArgs is invalid. submissionArgs가 잘못되었습니다. livyBatchId is invalid. livyBatchId가 잘못되었습니다. Get Application Id time out. {0}[Log] {1} 애플리케이션 ID 시간 제한을 가져옵니다. {0}[로그] {1} Property localFilePath or hdfsFolderPath is not specified. localFilePath 또는 hdfsFolderPath 속성을 지정하지 않았습니다. Property Path is not specified. 속성 경로를 지정하지 않았습니다. GENERAL 일반 Enter a name ... 이름 입력... Job Name 작업 이름 Spark Cluster Spark 클러스터 Path to a .jar or .py file .jar 또는 .py 파일의 경로 The selected local file will be uploaded to HDFS: {0} 선택한 로컬 파일이 HDFS에 업로드됩니다. {0} JAR/py File JAR/py 파일 Main Class 주 클래스 Arguments 인수 Command line arguments used in your main class, multiple arguments should be split by space. 주 클래스에 사용되는 명령줄 인수입니다. 여러 인수는 공백으로 구분해야 합니다. Property Job Name is not specified. 속성 작업 이름을 지정하지 않았습니다. Property JAR/py File is not specified. 속성 JAR/py 파일을 지정하지 않았습니다. Property Main Class is not specified. 속성 주 클래스를 지정하지 않았습니다. {0} does not exist in Cluster or exception thrown. {0}이(가) 클러스터에 없거나 예외가 throw되었습니다. The specified HDFS file does not exist. 지정된 HDFS 파일이 없습니다. Select 선택 Error in locating the file due to Error: {0} 오류로 인한 파일 찾기 오류: {0} ADVANCED 고급 Reference Jars 참조 Jar Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) 실행기 작업 디렉터리에 배치할 Jar입니다. Jar 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Reference py Files 참조 py 파일 Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 실행기 작업 디렉터리에 배치할 Py 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Reference Files 참조 파일 Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 실행기 작업 디렉터리에 배치할 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Driver Memory 드라이버 메모리 Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. 드라이버에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다. Driver Cores 드라이버 코어 Amount of CPU cores to allocate to the driver. 드라이버에 할당할 CPU 코어 양입니다. Executor Memory 실행기 메모리 Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. 실행기에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다. Executor Cores 실행기 코어 Amount of CPU cores to allocate to the executor. 실행기에 할당할 CPU 코어 양입니다. Executor Count 실행기 수 Number of instances of the executor to run. 실행할 실행기 인스턴스의 수입니다. Queue Name 큐 이름 Name of the Spark queue to execute the session in. 세션을 실행할 Spark 큐의 이름입니다. Configuration Values 구성 값 List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Spark 구성 값을 포함하는 이름 값 쌍 목록입니다. JSON 사전으로 인코딩됩니다. 예: '{"name":"value", "name2":"value2"}'. Please provide the username to connect to HDFS: HDFS에 연결하려면 사용자 이름을 제공하세요. Please provide the password to connect to HDFS: HDFS에 연결하려면 암호를 제공하세요. Session for node {0} does not exist {0} 노드의 세션이 없습니다. Error notifying of node change: {0} 노드 변경 알리기 오류: {0} HDFS HDFS Root 루트 Error: {0} 오류: {0} Cannot delete a connection. Only subfolders and files can be deleted. 연결을 삭제할 수 없습니다. 하위 폴더와 파일만 삭제할 수 있습니다. Stream operation canceled by the user 사용자가 취소한 스트림 작업 Metrics Dashboard 메트릭 대시보드 Log Search Dashboard 로그 검색 대시보드 Spark Jobs Management and Monitoring Dashboard Spark 작업 관리 및 모니터링 대시보드 Spark Diagnostics and Monitoring Dashboard Spark 진단 및 모니터링 대시보드 Copy 복사 Application Proxy 애플리케이션 프록시 Cluster Management Service 클러스터 관리 서비스 Gateway to access HDFS files, Spark HDFS 파일에 액세스하기 위한 게이트웨이, Spark Management Proxy 관리 프록시 Management Proxy 관리 프록시 SQL Server Master Instance Front-End SQL Server 마스터 인스턴스 프런트 엔드 Metrics Dashboard 메트릭 대시보드 Log Search Dashboard 로그 검색 대시보드 Spark Diagnostics and Monitoring Dashboard Spark 진단 및 모니터링 대시보드 Spark Jobs Management and Monitoring Dashboard Spark 작업 관리 및 모니터링 대시보드 HDFS File System Proxy HDFS 파일 시스템 프록시 Proxy for running Spark statements, jobs, applications Spark 문, 작업, 애플리케이션 실행을 위한 프록시 {0} Started {0}이(가) 시작됨 Starting {0} {0}을(를) 시작하는 중 Failed to start {0} {0}을(를) 시작하지 못함 Installing {0} to {1} {1}에 {0} 설치 중 Installing {0} {0} 설치 중 Installed {0} 설치된 {0} Downloading {0} {0} 다운로드 중 ({0} KB) ({0}KB) Downloading {0} {0} 다운로드 중 Done installing {0} {0} 설치 완료 Extracted {0} ({1}/{2}) 추출된 {0}({1}/{2}) Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 사용할 수 없습니다. 연결된 Azure 계정을 추가하고 쿼리를 다시 시도하세요. Please select a linked Azure account: 연결된 Azure 계정을 선택하세요. Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 선택하지 않았습니다. 쿼리를 다시 시도하고 메시지가 표시되면 연결된 Azure 계정을 선택하세요. The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. {0}에 대해 구성된 Azure 계정에 Always Encrypted의 열 마스터 키에 액세스할 수 있는 Azure Key Vault에 대한 권한이 없습니다.