Associate schemas to JSON files in the current project현재 프로젝트에서 스키마를 JSON 파일에 연결A URL to a schema or a relative path to a schema in the current directory현재 디렉터리에 있는 스키마의 URL 또는 상대 경로An array of file patterns to match against when resolving JSON files to schemas.JSON 파일로 스키마를 확인할 때 일치할 파일 패턴의 배열입니다.A file pattern that can contain '*' to match against when resolving JSON files to schemas.JSON 파일로 스키마를 확인할 때 일치할 '*'를 포함할 수 있는 파일 패턴입니다.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.지정된 URL의 스키마 정의입니다. 스키마는 스키마 URL에 대한 액세스 방지를 위해서만 제공해야 합니다.Enable/disable default JSON formatter (requires restart)기본 JSON 포맷터 사용/사용 안 함(다시 시작해야 함)Upload files파일 업로드New directory새 디렉터리Delete삭제Preview미리 보기Save저장Copy Path경로 복사Manage Access액세스 관리New Notebook새 NotebookOpen NotebookNotebook 열기Tasks and information about your SQL Server Big Data ClusterSQL Server 빅 데이터 클러스터에 대한 작업 및 정보SQL Server Big Data ClusterSQL Server 빅 데이터 클러스터Submit Spark JobSpark 작업 제출New Spark Job새 Spark 작업View Spark HistorySpark 기록 보기View Yarn HistoryYarn 기록 보기Tasks작업Install Packages패키지 설치Configure Python for NotebooksNotebook용 Python 구성Cluster
Dashboard클러스터
대시보드Search: Servers검색: 서버Search: Clear Search Server Results검색: 검색 서버 결과 지우기Service Endpoints서비스 엔드포인트NotebooksNotebookShow Log File로그 파일 표시Disabled사용 안 함Enabled사용Export Notebook as SQLNotebook을 SQL로 내보내기Export SQL as NotebookSQL을 Notebook으로 내보내기MSSQL configurationMSSQL 구성Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'BIT 열을 숫자(1 또는 0)로 표시할지 여부. False이면 BIT 열을 'true' 또는 'false'로 표시합니다.Number of XML characters to store after running a query쿼리를 실행한 후 저장할 XML 문자 수Should column definitions be aligned?열 정의 정렬 여부Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)데이터 형식을 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)키워드를 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'목록의 각 문 앞에 쉼표를 표시할지 여부(예: 끝에 'mycolumn1' 대신 ', mycolumn2' 사용)Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSelect 문에서 개체에 대한 참조를 별도 줄에 분할할지 여부(예: 'SELECT C1, C2 FROM T1'의 경우 C1 및 C2를 별도의 줄에 표시함)[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[옵션] 디버그 출력을 콘솔에 로깅한 다음(보기 -> 출력), 드롭다운에서 해당 출력 채널을 선택합니다.[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[옵션] 백 엔드 서비스의 로그 수준입니다. Azure Data Studio는 시작할 때마다 파일 이름을 생성하며 파일이 이미 있으면 로그 항목이 해당 파일에 추가됩니다. 이전 로그 파일을 정리하려면 logRetentionMinutes 및 logFilesRemovalLimit 설정을 참조하세요. 기본 tracingLevel에서는 많은 양의 로그가 기록되지 않습니다. 세부 정보 표시를 변경하면 로깅이 광범위해지고 로그의 디스크 공간 요구 사항이 커질 수 있습니다. 오류이면 중요가 포함되고 경고이면 오류가 포함되고 정보이면 경고가 포함되고 세부 정보 표시이면 정보가 포함됩니다.Number of minutes to retain log files for backend services. Default is 1 week.백 엔드 서비스의 로그 파일을 유지하는 시간(분)입니다. 기본값은 1주일입니다.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.시작 시 제거하려고 하며 mssql.logRetentionMinutes가 만료된 이전 파일의 최대 수입니다. 이 제한으로 인해 정리되지 않은 파일은 다음에 Azure Data Studio를 시작할 때 정리됩니다.Should IntelliSense be enabledIntelliSense 사용 여부Should IntelliSense error checking be enabledIntelliSense 오류 검사 사용 여부Should IntelliSense suggestions be enabledIntelliSense 제안 사용 여부Should IntelliSense quick info be enabledIntelliSense 빠른 정보 사용 여부Should IntelliSense suggestions be lowercaseIntelliSense 제안을 소문자로 표시할지 여부Maximum number of rows to return before the server stops processing your query.서버가 쿼리 처리를 중지하기 전에 반환할 최대 행 수입니다.Maximum size of text and ntext data returned from a SELECT statementSELECT 문에서 반환되는 text 및 ntext 데이터의 최대 크기An execution time-out of 0 indicates an unlimited wait (no time-out)실행 시간 제한이 0이면 무제한 대기(시간 제한 없음)를 나타냅니다.Enable SET NOCOUNT optionSET NOCOUNT 옵션 사용Enable SET NOEXEC optionSET NOEXEC 옵션 사용Enable SET PARSEONLY optionSET PARSEONLY 옵션 사용Enable SET ARITHABORT optionSET ARITHABORT 옵션 사용Enable SET STATISTICS TIME optionSET STATISTICS TIME 옵션 사용Enable SET STATISTICS IO optionSET STATISTICS IO 옵션 사용Enable SET XACT_ABORT ON optionSET XACT_ABORT ON 옵션 사용Enable SET TRANSACTION ISOLATION LEVEL optionSET TRANSACTION ISOLATION LEVEL 옵션 사용Enable SET DEADLOCK_PRIORITY optionSET DEADLOCK_PRIORITY 옵션 사용Enable SET LOCK TIMEOUT option (in milliseconds)SET LOCK TIMEOUT 옵션 사용(밀리초)Enable SET QUERY_GOVERNOR_COST_LIMITSET QUERY_GOVERNOR_COST_LIMIT 사용Enable SET ANSI_DEFAULTSSET ANSI_DEFAULTS 사용Enable SET QUOTED_IDENTIFIERSET QUOTED_IDENTIFIER 사용Enable SET ANSI_NULL_DFLT_ONSET ANSI_NULL_DFLT_ON 사용Enable SET IMPLICIT_TRANSACTIONSSET IMPLICIT_TRANSACTIONS 사용Enable SET CURSOR_CLOSE_ON_COMMITSET CURSOR_CLOSE_ON_COMMIT 사용Enable SET ANSI_PADDINGSET ANSI_PADDING 사용Enable SET ANSI_WARNINGSSET ANSI_WARNINGS 사용Enable SET ANSI_NULLSSET ANSI_NULLS 사용Enable Parameterization for Always EncryptedAlways Encrypted에 매개 변수화 사용[Optional] Do not show unsupported platform warnings[옵션] 지원되지 않는 플랫폼 경고 표시 안 함Recovery Model복구 모델Last Database Backup마지막 데이터베이스 백업Last Log Backup마지막 로그 백업Compatibility Level호환성 수준Owner소유자Version버전Edition버전Computer Name컴퓨터 이름OS VersionOS 버전Edition버전Pricing Tier가격 책정 계층Compatibility Level호환성 수준Owner소유자Version버전Type형식Microsoft SQL ServerMicrosoft SQL ServerName (optional)이름(옵션)Custom name of the connection연결의 사용자 지정 이름Server서버Name of the SQL Server instanceSQL Server 인스턴스의 이름Database데이터베이스The name of the initial catalog or database int the data source데이터 원본에 있는 초기 카탈로그 또는 데이터베이스의 이름Authentication type인증 유형Specifies the method of authenticating with SQL ServerSQL Server로 인증하는 방법을 지정합니다.SQL LoginSQL 로그인Windows AuthenticationWindows 인증Azure Active Directory - Universal with MFA supportAzure Active Directory - MFA가 지원되는 유니버설User name사용자 이름Indicates the user ID to be used when connecting to the data source데이터 원본에 연결할 때 사용할 사용자 ID를 나타냅니다.Password암호Indicates the password to be used when connecting to the data source데이터 원본에 연결할 때 사용할 암호를 나타냅니다.Application intent애플리케이션 의도Declares the application workload type when connecting to a server서버에 연결할 때 애플리케이션 워크로드 형식을 선언합니다.Asynchronous processing비동기 처리When true, enables usage of the Asynchronous functionality in the .Net Framework Data Providertrue인 경우 .NET Framework 데이터 공급자에서 비동기 기능의 사용을 활성화합니다.Connect timeout연결 시간 제한The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error연결 시도를 중단하고 오류를 생성하기 전 서버에 연결될 때까지의 대기 시간(초)입니다.Current language현재 언어The SQL Server language record nameSQL Server 언어 레코드 이름Always EncryptedAlways EncryptedEnables or disables Always Encrypted for the connection연결에 Always Encrypted 기능 사용 또는 사용 안 함Attestation Protocol증명 프로토콜Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 프로토콜 지정Azure AttestationAzure AttestationHost Guardian Service호스트 보호 서비스Enclave Attestation URLEnclave 증명 URLSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 엔드포인트 지정Encrypt암호화When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedtrue인 경우 서버에 인증서가 설치되어 있으면 SQL Server는 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.Persist security info보안 정보 유지When false, security-sensitive information, such as the password, is not returned as part of the connectionfalse이면 보안상 중요한 정보(예: 암호)를 연결의 일부로 반환하지 않습니다.Trust server certificate서버 인증서 신뢰When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificatetrue(및 encrypt=true)인 경우 SQL Server는 서버 인증서의 유효성을 검사하지 않고 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.Attached DB file name연결된 DB 파일 이름The name of the primary file, including the full path name, of an attachable database연결할 수 있는 데이터베이스의 기본 파일 이름(전체 경로 이름 포함)Context connection컨텍스트 연결When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processtrue인 경우 연결이 SQL Server 컨텍스트에서 시작되어야 함을 나타냅니다. SQL Server 프로세스에서 실행 중인 경우에만 사용할 수 있습니다.Port포트Connect retry count연결 다시 시도 횟수Number of attempts to restore connection연결 복구 시도의 횟수Connect retry interval연결 다시 시도 간격Delay between attempts to restore connection연결 복구 시도 간 지연 시간Application name애플리케이션 이름The name of the application애플리케이션의 이름Workstation Id워크스테이션 IDThe name of the workstation connecting to SQL ServerSQL Server에 연결하는 워크스테이션의 이름Pooling풀링When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pooltrue이면 해당 풀에서 연결 개체를 끌어 오거나 필요한 경우 연결 개체를 만들어 해당 풀에 추가합니다.Max pool size최대 풀 크기The maximum number of connections allowed in the pool풀에서 허용되는 최대 연결 수Min pool size최소 풀 크기The minimum number of connections allowed in the pool풀에서 허용되는 최소 연결 수Load balance timeout부하 분산 시간 제한The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed이 연결이 제거되기 전에 풀에서 활성화되어 있는 최소 시간(초)입니다.Replication복제Used by SQL Server in Replication복제에서 SQL Server가 사용합니다.Attach DB filenameDB 파일 이름 연결Failover partner장애 조치(failover) 파트너The name or network address of the instance of SQL Server that acts as a failover partner장애 조치(failover) 파트너 역할을 하는 SQL Server 인스턴스의 이름 또는 네트워크 주소Multi subnet failover다중 서브넷 장애 조치(failover)Multiple active result sets여러 개의 활성 결과 집합When true, multiple result sets can be returned and read from one connectiontrue인 경우 한 연결에서 여러 결과 집합을 반환하고 읽을 수 있습니다.Packet size패킷 크기Size in bytes of the network packets used to communicate with an instance of SQL ServerSQL Server 인스턴스와 통신하는 데 사용되는 네트워크 패킷의 크기(바이트)Type system version형식 시스템 버전Indicates which server type system the provider will expose through the DataReader공급자가 DataReader를 통해 공개할 서버 유형 시스템을 나타냄Name이름Status상태Size (MB)크기(MB)Last backup마지막 백업Name이름Node Command called without any node passed노드가 전달되지 않고 호출된 노드 명령Manage Access액세스 관리Location : 위치: Permissions권한 - Owner - 소유자Owner소유자Group그룹 - Owning Group - 소유 그룹Everyone else모든 사용자User사용자Group그룹Access액세스Default기본값Delete삭제Sticky Bit고정 비트Inherit Defaults기본값 상속Read읽기Write쓰기Execute실행Add User or Group사용자 또는 그룹 추가Enter name이름 입력Add추가Named Users and Groups명명된 사용자 및 그룹Default User and Groups기본 사용자 및 그룹User or Group Icon사용자 또는 그룹 아이콘Apply적용Apply Recursively재귀적으로 적용Unexpected error occurred while applying changes : {0}변경 내용을 적용하는 동안 예기치 않은 오류가 발생했습니다. {0}Local file will be uploaded to HDFS. 로컬 파일이 HDFS에 업로드됩니다. .......................... Submit Spark Job End ...................................................... Spark 작업 제출 종료 ................................................Uploading file from local {0} to HDFS folder: {1}로컬 {0}에서 HDFS 폴더로 파일 업로드 중: {1}Upload file to cluster Succeeded!클러스터에 파일을 업로드했습니다.Upload file to cluster Failed. {0}클러스터에 파일을 업로드하지 못했습니다. {0}Submitting job {0} ... {0} 작업을 제출하는 중... The Spark Job has been submitted.Spark 작업을 제출했습니다.Spark Job Submission Failed. {0} Spark 작업 {0}을(를) 제출하지 못했습니다. YarnUI Url: {0} YarnUI URL: {0} Spark History Url: {0} Spark 기록 URL: {0} Get Application Id Failed. {0}애플리케이션 ID를 가져오지 못했습니다. {0}Local file {0} does not existed. 로컬 파일 {0}이(가) 없습니다. No SQL Server Big Data Cluster found.SQL Server 빅 데이터 클러스터를 찾을 수 없습니다.Please connect to the Spark cluster before View {0} History.{0} 기록을 보려면 먼저 Spark 클러스터에 연결하세요.NOTICE: This file has been truncated at {0} for preview. 알림: 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. The file has been truncated at {0} for preview.이 파일은 미리 보기를 위해 {0}에서 잘렸습니다.$(sync~spin) {0}...$(sync~spin) {0}...Cancel취소Cancel operation?작업 취소 여부Search Server Names서버 이름 검색No Spark job batch id is returned from response.{0}[Error] {1}응답에서 Spark 작업 일괄 처리 ID가 반환되지 않았습니다. {0}[오류] {1}No log is returned within response.{0}[Error] {1}응답 내에 로그가 반환되지 않았습니다. {0}[오류] {1}{0}Please provide the username to connect to the BDC Controller:{0}BDC 컨트롤러에 연결하려면 사용자 이름을 제공하세요.Please provide the password to connect to the BDC ControllerBDC 컨트롤러에 연결하려면 암호를 제공하세요.Error: {0}. 오류: {0}. Username and password are required사용자 이름과 암호가 필요합니다.All Files모든 파일Upload업로드Uploading files to HDFSHDFS로 파일 업로드 중Upload operation was canceled업로드 작업이 취소되었습니다.Error uploading files: {0}파일 업로드 오류: {0}Creating directory디렉터리를 만드는 중Operation was canceled작업이 취소되었습니다.Error on making directory: {0}디렉터리 만들기 오류: {0}Enter directory name디렉터리 이름 입력Error on deleting files: {0}파일 삭제 오류: {0}Are you sure you want to delete this folder and its contents?이 폴더와 해당 내용을 삭제하시겠습니까?Are you sure you want to delete this file?이 파일을 삭제하시겠습니까?Saving HDFS FilesHDFS 파일 저장 중Save operation was canceled저장 작업이 취소되었습니다.Error on saving file: {0}파일 저장 오류: {0}Generating preview미리 보기 생성 중Error on previewing file: {0}파일 미리 보기 오류: {0}Error on copying path: {0}경로 복사 오류: {0}An unexpected error occurred while opening the Manage Access dialog: {0}액세스 관리 대화 상자를 여는 동안 예기치 않은 오류가 발생했습니다. {0}Invalid Data Structure잘못된 데이터 구조Unable to create WebHDFS client due to missing options: ${0}누락된 옵션으로 인해 WebHDFS 클라이언트를 만들 수 없습니다. ${0}'${0}' is undefined.'${0}'이(가) 정의되지 않았습니다.Bad Request잘못된 요청Unauthorized권한 없음Forbidden금지됨Not Found찾을 수 없음Internal Server Error내부 서버 오류Unknown Error알 수 없는 오류Unexpected Redirect예기치 않은 리디렉션ConnectionInfo is undefined.ConnectionInfo가 정의되지 않았습니다.ConnectionInfo.options is undefined.ConnectionInfo.options가 정의되지 않았습니다.Some missing properties in connectionInfo.options: {0}connectionInfo.options에서 일부 속성이 누락되었습니다. {0}View Known Issues알려진 문제 보기{0} component exited unexpectedly. Please restart Azure Data Studio.{0} 구성 요소가 예기치 않게 종료되었습니다. Azure Data Studio를 다시 시작하세요.This sample code loads the file into a data frame and shows the first 10 results.이 샘플 코드는 파일을 데이터 프레임에 로드하고 처음 10개의 결과를 표시합니다.An error occurred converting the SQL document to a Notebook. Error : {0}SQL 문서를 Notebook으로 변환하는 동안 오류가 발생했습니다. 오류: {0}An error occurred converting the Notebook document to SQL. Error : {0}Notebook 문서를 SQL로 변환하는 동안 오류가 발생했습니다. 오류: {0}NotebooksNotebookOnly .ipynb Notebooks are supported.ipynb Notebook만 지원됩니다.Could not find the controller endpoint for this instance이 인스턴스의 컨트롤러 엔드포인트를 찾을 수 없음Applying permission changes recursively under '{0}''{0}'에서 권한 변경 내용을 재귀적으로 적용하는 중Permission changes applied successfully.권한 변경 내용을 적용했습니다.Applying permission changes to '{0}'.권한 변경 내용을 '{0}'에 적용하는 중입니다.Error applying permission changes: {0}권한 변경 내용 적용 오류: {0}Yes예No아니요Select other SQL Server다른 SQL Server 선택Please select SQL Server with Big Data Cluster.빅 데이터 클러스터가 있는 SQL Server를 선택하세요.No SQL Server is selected.SQL Server를 선택하지 않았습니다.The selected server does not belong to a SQL Server Big Data Cluster선택한 서버가 SQL Server 빅 데이터 클러스터에 속하지 않습니다.Error Get File Path: {0}파일 경로 가져오기 오류: {0}Parameters for SparkJobSubmissionDialog is illegalSparkJobSubmissionDialog에 대한 매개 변수가 잘못되었습니다.New Job새 작업Cancel취소Submit제출{0} Spark Job Submission:{0} Spark 작업 제출:.......................... Submit Spark Job Start .................................................... Spark 작업 제출 시작 ...................................Parameters for SparkJobSubmissionModel is illegalSparkJobSubmissionModel의 매개 변수가 잘못되었습니다.submissionArgs is invalid. submissionArgs가 잘못되었습니다. livyBatchId is invalid. livyBatchId가 잘못되었습니다. Get Application Id time out. {0}[Log] {1}애플리케이션 ID 시간 제한을 가져옵니다. {0}[로그] {1}Property localFilePath or hdfsFolderPath is not specified. localFilePath 또는 hdfsFolderPath 속성을 지정하지 않았습니다. Property Path is not specified. 속성 경로를 지정하지 않았습니다. GENERAL일반Enter a name ...이름 입력...Job Name작업 이름Spark ClusterSpark 클러스터Path to a .jar or .py file.jar 또는 .py 파일의 경로The selected local file will be uploaded to HDFS: {0}선택한 로컬 파일이 HDFS에 업로드됩니다. {0}JAR/py FileJAR/py 파일Main Class주 클래스Arguments인수Command line arguments used in your main class, multiple arguments should be split by space.주 클래스에 사용되는 명령줄 인수입니다. 여러 인수는 공백으로 구분해야 합니다.Property Job Name is not specified.속성 작업 이름을 지정하지 않았습니다.Property JAR/py File is not specified.속성 JAR/py 파일을 지정하지 않았습니다.Property Main Class is not specified.속성 주 클래스를 지정하지 않았습니다.{0} does not exist in Cluster or exception thrown. {0}이(가) 클러스터에 없거나 예외가 throw되었습니다. The specified HDFS file does not exist. 지정된 HDFS 파일이 없습니다. Select선택Error in locating the file due to Error: {0}오류로 인한 파일 찾기 오류: {0}ADVANCED고급Reference Jars참조 JarJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)실행기 작업 디렉터리에 배치할 Jar입니다. Jar 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Reference py Files참조 py 파일Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)실행기 작업 디렉터리에 배치할 Py 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Reference Files참조 파일Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)실행기 작업 디렉터리에 배치할 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Driver Memory드라이버 메모리Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.드라이버에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다.Driver Cores드라이버 코어Amount of CPU cores to allocate to the driver.드라이버에 할당할 CPU 코어 양입니다.Executor Memory실행기 메모리Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.실행기에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다.Executor Cores실행기 코어Amount of CPU cores to allocate to the executor.실행기에 할당할 CPU 코어 양입니다.Executor Count실행기 수Number of instances of the executor to run.실행할 실행기 인스턴스의 수입니다.Queue Name큐 이름Name of the Spark queue to execute the session in.세션을 실행할 Spark 큐의 이름입니다.Configuration Values구성 값List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Spark 구성 값을 포함하는 이름 값 쌍 목록입니다. JSON 사전으로 인코딩됩니다. 예: '{"name":"value", "name2":"value2"}'.Please provide the username to connect to HDFS:HDFS에 연결하려면 사용자 이름을 제공하세요.Please provide the password to connect to HDFS:HDFS에 연결하려면 암호를 제공하세요.Session for node {0} does not exist{0} 노드의 세션이 없습니다.Error notifying of node change: {0}노드 변경 알리기 오류: {0}HDFSHDFSRoot루트Error: {0}오류: {0}Cannot delete a connection. Only subfolders and files can be deleted.연결을 삭제할 수 없습니다. 하위 폴더와 파일만 삭제할 수 있습니다.Stream operation canceled by the user사용자가 취소한 스트림 작업Metrics Dashboard메트릭 대시보드Log Search Dashboard로그 검색 대시보드Spark Jobs Management and Monitoring DashboardSpark 작업 관리 및 모니터링 대시보드Spark Diagnostics and Monitoring DashboardSpark 진단 및 모니터링 대시보드Copy복사Application Proxy애플리케이션 프록시Cluster Management Service클러스터 관리 서비스Gateway to access HDFS files, SparkHDFS 파일에 액세스하기 위한 게이트웨이, SparkManagement Proxy관리 프록시Management Proxy관리 프록시SQL Server Master Instance Front-EndSQL Server 마스터 인스턴스 프런트 엔드Metrics Dashboard메트릭 대시보드Log Search Dashboard로그 검색 대시보드Spark Diagnostics and Monitoring DashboardSpark 진단 및 모니터링 대시보드Spark Jobs Management and Monitoring DashboardSpark 작업 관리 및 모니터링 대시보드HDFS File System ProxyHDFS 파일 시스템 프록시Proxy for running Spark statements, jobs, applicationsSpark 문, 작업, 애플리케이션 실행을 위한 프록시{0} Started{0}이(가) 시작됨Starting {0}{0}을(를) 시작하는 중Failed to start {0}{0}을(를) 시작하지 못함Installing {0} to {1}{1}에 {0} 설치 중Installing {0}{0} 설치 중Installed {0}설치된 {0}Downloading {0}{0} 다운로드 중({0} KB)({0}KB)Downloading {0}{0} 다운로드 중Done installing {0}{0} 설치 완료Extracted {0} ({1}/{2})추출된 {0}({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 사용할 수 없습니다. 연결된 Azure 계정을 추가하고 쿼리를 다시 시도하세요.Please select a linked Azure account:연결된 Azure 계정을 선택하세요.Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 선택하지 않았습니다. 쿼리를 다시 시도하고 메시지가 표시되면 연결된 Azure 계정을 선택하세요.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.{0}에 대해 구성된 Azure 계정에 Always Encrypted의 열 마스터 키에 액세스할 수 있는 Azure Key Vault에 대한 권한이 없습니다.