Associate schemas to JSON files in the current project 현재 프로젝트에서 스키마를 JSON 파일에 연결 A URL to a schema or a relative path to a schema in the current directory 현재 디렉터리에 있는 스키마의 URL 또는 상대 경로 An array of file patterns to match against when resolving JSON files to schemas. JSON 파일로 스키마를 확인할 때 일치할 파일 패턴의 배열입니다. A file pattern that can contain '*' to match against when resolving JSON files to schemas. JSON 파일로 스키마를 확인할 때 일치할 '*'를 포함할 수 있는 파일 패턴입니다. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. 지정된 URL의 스키마 정의입니다. 스키마는 스키마 URL에 대한 액세스 방지를 위해서만 제공해야 합니다. Enable/disable default JSON formatter (requires restart) 기본 JSON 포맷터 사용/사용 안 함(다시 시작해야 함) Upload files 파일 업로드 New directory 새 디렉터리 Delete 삭제 Preview 미리 보기 Save 저장 Copy Path 경로 복사 Manage Access 액세스 관리 New Notebook 새 Notebook Open Notebook Notebook 열기 Tasks and information about your SQL Server Big Data Cluster SQL Server 빅 데이터 클러스터에 대한 작업 및 정보 SQL Server Big Data Cluster SQL Server 빅 데이터 클러스터 Submit Spark Job Spark 작업 제출 New Spark Job 새 Spark 작업 View Spark History Spark 기록 보기 View Yarn History Yarn 기록 보기 Tasks 작업 Install Packages 패키지 설치 Configure Python for Notebooks Notebook용 Python 구성 Search: Servers 검색: 서버 Search: Clear Search Server Results 검색: 검색 서버 결과 지우기 Service Endpoints 서비스 엔드포인트 Notebooks Notebook Show Log File 로그 파일 표시 MSSQL configuration MSSQL 구성 Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' BIT 열을 숫자(1 또는 0)로 표시할지 여부. False이면 BIT 열을 'true' 또는 'false'로 표시합니다. Should column definitions be aligned? 열 정의 정렬 여부 Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) 데이터 형식을 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부 Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) 키워드를 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부 should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' 목록의 각 문 앞에 쉼표를 표시할지 여부(예: 끝에 'mycolumn1' 대신 ', mycolumn2' 사용) Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Select 문에서 개체에 대한 참조를 별도 줄에 분할할지 여부(예: 'SELECT C1, C2 FROM T1'의 경우 C1 및 C2를 별도의 줄에 표시함) [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [옵션] 디버그 출력을 콘솔에 로깅한 다음(보기 -> 출력), 드롭다운에서 해당 출력 채널을 선택합니다. [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [옵션] 백 엔드 서비스의 로그 수준입니다. Azure Data Studio는 시작할 때마다 파일 이름을 생성하며 파일이 이미 있으면 로그 항목이 해당 파일에 추가됩니다. 이전 로그 파일을 정리하려면 logRetentionMinutes 및 logFilesRemovalLimit 설정을 참조하세요. 기본 tracingLevel에서는 많은 양의 로그가 기록되지 않습니다. 세부 정보 표시를 변경하면 로깅이 광범위해지고 로그의 디스크 공간 요구 사항이 커질 수 있습니다. 오류이면 중요가 포함되고 경고이면 오류가 포함되고 정보이면 경고가 포함되고 세부 정보 표시이면 정보가 포함됩니다. Number of minutes to retain log files for backend services. Default is 1 week. 백 엔드 서비스의 로그 파일을 유지하는 시간(분)입니다. 기본값은 1주일입니다. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. 시작 시 제거하려고 하며 mssql.logRetentionMinutes가 만료된 이전 파일의 최대 수입니다. 이 제한으로 인해 정리되지 않은 파일은 다음에 Azure Data Studio를 시작할 때 정리됩니다. [Optional] Do not show unsupported platform warnings [옵션] 지원되지 않는 플랫폼 경고 표시 안 함 Recovery Model 복구 모델 Last Database Backup 마지막 데이터베이스 백업 Last Log Backup 마지막 로그 백업 Compatibility Level 호환성 수준 Owner 소유자 Version 버전 Edition 버전 Computer Name 컴퓨터 이름 OS Version OS 버전 Edition 버전 Pricing Tier 가격 책정 계층 Compatibility Level 호환성 수준 Owner 소유자 Version 버전 Type 형식 Microsoft SQL Server Microsoft SQL Server Name (optional) 이름(옵션) Custom name of the connection 연결의 사용자 지정 이름 Server 서버 Name of the SQL Server instance SQL Server 인스턴스의 이름 Database 데이터베이스 The name of the initial catalog or database int the data source 데이터 원본에 있는 초기 카탈로그 또는 데이터베이스의 이름 Authentication type 인증 유형 Specifies the method of authenticating with SQL Server SQL Server로 인증하는 방법을 지정합니다. SQL Login SQL 로그인 Windows Authentication Windows 인증 Azure Active Directory - Universal with MFA support Azure Active Directory - MFA가 지원되는 유니버설 User name 사용자 이름 Indicates the user ID to be used when connecting to the data source 데이터 원본에 연결할 때 사용할 사용자 ID를 나타냅니다. Password 암호 Indicates the password to be used when connecting to the data source 데이터 원본에 연결할 때 사용할 암호를 나타냅니다. Application intent 애플리케이션 의도 Declares the application workload type when connecting to a server 서버에 연결할 때 애플리케이션 워크로드 형식을 선언합니다. Asynchronous processing 비동기 처리 When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider true인 경우 .NET Framework 데이터 공급자에서 비동기 기능의 사용을 활성화합니다. Connect timeout 연결 시간 제한 The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error 연결 시도를 중단하고 오류를 생성하기 전 서버에 연결될 때까지의 대기 시간(초)입니다. Current language 현재 언어 The SQL Server language record name SQL Server 언어 레코드 이름 Column encryption 열 암호화 Default column encryption setting for all the commands on the connection 연결에서 모든 명령에 대한 기본 열 암호화 설정입니다. Encrypt 암호화 When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed true인 경우 서버에 인증서가 설치되어 있으면 SQL Server는 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다. Persist security info 보안 정보 유지 When false, security-sensitive information, such as the password, is not returned as part of the connection false이면 보안상 중요한 정보(예: 암호)를 연결의 일부로 반환하지 않습니다. Trust server certificate 서버 인증서 신뢰 When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate true(및 encrypt=true)인 경우 SQL Server는 서버 인증서의 유효성을 검사하지 않고 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다. Attached DB file name 연결된 DB 파일 이름 The name of the primary file, including the full path name, of an attachable database 연결할 수 있는 데이터베이스의 기본 파일 이름(전체 경로 이름 포함) Context connection 컨텍스트 연결 When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process true인 경우 연결이 SQL Server 컨텍스트에서 시작되어야 함을 나타냅니다. SQL Server 프로세스에서 실행 중인 경우에만 사용할 수 있습니다. Port 포트 Connect retry count 연결 다시 시도 횟수 Number of attempts to restore connection 연결 복구 시도의 횟수 Connect retry interval 연결 다시 시도 간격 Delay between attempts to restore connection 연결 복구 시도 간 지연 시간 Application name 애플리케이션 이름 The name of the application 애플리케이션의 이름 Workstation Id 워크스테이션 ID The name of the workstation connecting to SQL Server SQL Server에 연결하는 워크스테이션의 이름 Pooling 풀링 When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool true이면 해당 풀에서 연결 개체를 끌어 오거나 필요한 경우 연결 개체를 만들어 해당 풀에 추가합니다. Max pool size 최대 풀 크기 The maximum number of connections allowed in the pool 풀에서 허용되는 최대 연결 수 Min pool size 최소 풀 크기 The minimum number of connections allowed in the pool 풀에서 허용되는 최소 연결 수 Load balance timeout 부하 분산 시간 제한 The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed 이 연결이 제거되기 전에 풀에서 활성화되어 있는 최소 시간(초)입니다. Replication 복제 Used by SQL Server in Replication 복제에서 SQL Server가 사용합니다. Attach DB filename DB 파일 이름 연결 Failover partner 장애 조치(failover) 파트너 The name or network address of the instance of SQL Server that acts as a failover partner 장애 조치(failover) 파트너 역할을 하는 SQL Server 인스턴스의 이름 또는 네트워크 주소 Multi subnet failover 다중 서브넷 장애 조치(failover) Multiple active result sets 여러 개의 활성 결과 집합 When true, multiple result sets can be returned and read from one connection true인 경우 한 연결에서 여러 결과 집합을 반환하고 읽을 수 있습니다. Packet size 패킷 크기 Size in bytes of the network packets used to communicate with an instance of SQL Server SQL Server 인스턴스와 통신하는 데 사용되는 네트워크 패킷의 크기(바이트) Type system version 형식 시스템 버전 Indicates which server type system then provider will expose through the DataReader 공급자가 DataReader를 통해 노출할 서버 형식 시스템을 나타냅니다. Node Command called without any node passed 노드가 전달되지 않고 호출된 노드 명령 Manage Access 액세스 관리 Location : 위치: Permissions 권한 - Owner - 소유자 - Owning Group - 소유 그룹 Everyone else 모든 사용자 User 사용자 Group 그룹 Access 액세스 Default 기본값 Delete 삭제 Sticky 고정 Inherit Defaults 기본값 상속 Read 읽기 Write 쓰기 Execute 실행 Add User or Group 사용자 또는 그룹 추가 Enter name 이름 입력 Add 추가 Named Users and Groups 명명된 사용자 및 그룹 Apply 적용 Apply Recursively 재귀적으로 적용 Unexpected error occurred while applying changes : {0} 변경 내용을 적용하는 동안 예기치 않은 오류가 발생했습니다. {0} Local file will be uploaded to HDFS. 로컬 파일이 HDFS에 업로드됩니다. .......................... Submit Spark Job End ............................ .......................... Spark 작업 제출 종료 ................................................ Uploading file from local {0} to HDFS folder: {1} 로컬 {0}에서 HDFS 폴더로 파일 업로드 중: {1} Upload file to cluster Succeeded! 클러스터에 파일을 업로드했습니다. Upload file to cluster Failed. {0} 클러스터에 파일을 업로드하지 못했습니다. {0} Submitting job {0} ... {0} 작업을 제출하는 중... The Spark Job has been submitted. Spark 작업을 제출했습니다. Spark Job Submission Failed. {0} Spark 작업 {0}을(를) 제출하지 못했습니다. YarnUI Url: {0} YarnUI URL: {0} Spark History Url: {0} Spark 기록 URL: {0} Get Application Id Failed. {0} 애플리케이션 ID를 가져오지 못했습니다. {0} Local file {0} does not existed. 로컬 파일 {0}이(가) 없습니다. No SQL Server Big Data Cluster found. SQL Server 빅 데이터 클러스터를 찾을 수 없습니다. NOTICE: This file has been truncated at {0} for preview. 알림: 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. The file has been truncated at {0} for preview. 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. $(sync~spin) {0}... $(sync~spin) {0}... Cancel 취소 Cancel operation? 작업 취소 여부 Search Server Names 서버 이름 검색 No Spark job batch id is returned from response.{0}[Error] {1} 응답에서 Spark 작업 일괄 처리 ID가 반환되지 않았습니다. {0}[오류] {1} No log is returned within response.{0}[Error] {1} 응답 내에 로그가 반환되지 않았습니다. {0}[오류] {1} All Files 모든 파일 Upload 업로드 Uploading files to HDFS HDFS로 파일 업로드 중 Upload operation was canceled 업로드 작업이 취소되었습니다. Error uploading files: {0} 파일 업로드 오류: {0} Creating directory 디렉터리를 만드는 중 Operation was canceled 작업이 취소되었습니다. Error on making directory: {0} 디렉터리 만들기 오류: {0} Enter directory name 디렉터리 이름 입력 Error on deleting files: {0} 파일 삭제 오류: {0} Are you sure you want to delete this folder and its contents? 이 폴더와 해당 내용을 삭제하시겠습니까? Are you sure you want to delete this file? 이 파일을 삭제하시겠습니까? Saving HDFS Files HDFS 파일 저장 중 Save operation was canceled 저장 작업이 취소되었습니다. Error on saving file: {0} 파일 저장 오류: {0} Generating preview 미리 보기 생성 중 Error on previewing file: {0} 파일 미리 보기 오류: {0} Error on copying path: {0} 경로 복사 오류: {0} An unexpected error occurred while opening the Manage Access dialog: {0} 액세스 관리 대화 상자를 여는 동안 예기치 않은 오류가 발생했습니다. {0} Invalid Data Structure 잘못된 데이터 구조 Unable to create WebHDFS client due to missing options: ${0} 누락된 옵션으로 인해 WebHDFS 클라이언트를 만들 수 없습니다. ${0} '${0}' is undefined. '${0}'이(가) 정의되지 않았습니다. Bad Request 잘못된 요청 Unauthorized 권한 없음 Forbidden 금지됨 Not Found 찾을 수 없음 Internal Server Error 내부 서버 오류 Unknown Error 알 수 없는 오류 Unexpected Redirect 예기치 않은 리디렉션 ConnectionInfo is undefined. ConnectionInfo가 정의되지 않았습니다. ConnectionInfo.options is undefined. ConnectionInfo.options가 정의되지 않았습니다. Some missing properties in connectionInfo.options: {0} connectionInfo.options에서 일부 속성이 누락되었습니다. {0} View Known Issues 알려진 문제 보기 {0} component exited unexpectedly. Please restart Azure Data Studio. {0} 구성 요소가 예기치 않게 종료되었습니다. Azure Data Studio를 다시 시작하세요. This sample code loads the file into a data frame and shows the first 10 results. 이 샘플 코드는 파일을 데이터 프레임에 로드하고 처음 10개의 결과를 표시합니다. Notebooks Notebook Only .ipynb Notebooks are supported .ipynb Notebook만 지원됩니다. Unable to find the file specified 지정된 파일을 찾을 수 없습니다. Applying permission changes recursively under '{0}' '{0}'에서 권한 변경 내용을 재귀적으로 적용하는 중 Permission changes applied successfully. 권한 변경 내용을 적용했습니다. Applying permission changes to '{0}'. 권한 변경 내용을 '{0}'에 적용하는 중입니다. Error applying permission changes: {0} 권한 변경 내용 적용 오류: {0} Yes No 아니요 Select other SQL Server 다른 SQL Server 선택 Please select SQL Server with Big Data Cluster. 빅 데이터 클러스터가 있는 SQL Server를 선택하세요. No SQL Server is selected. SQL Server를 선택하지 않았습니다. The selected server does not belong to a SQL Server Big Data Cluster 선택한 서버가 SQL Server 빅 데이터 클러스터에 속하지 않습니다. Error Get File Path: {0} 파일 경로 가져오기 오류: {0} Parameters for SparkJobSubmissionDialog is illegal SparkJobSubmissionDialog에 대한 매개 변수가 잘못되었습니다. New Job 새 작업 Cancel 취소 Submit 제출 {0} Spark Job Submission: {0} Spark 작업 제출: .......................... Submit Spark Job Start .......................... .......................... Spark 작업 제출 시작 ................................... Parameters for SparkJobSubmissionModel is illegal SparkJobSubmissionModel의 매개 변수가 잘못되었습니다. submissionArgs is invalid. submissionArgs가 잘못되었습니다. livyBatchId is invalid. livyBatchId가 잘못되었습니다. Get Application Id time out. {0}[Log] {1} 애플리케이션 ID 시간 제한을 가져옵니다. {0}[로그] {1} Property localFilePath or hdfsFolderPath is not specified. localFilePath 또는 hdfsFolderPath 속성을 지정하지 않았습니다. Property Path is not specified. 속성 경로를 지정하지 않았습니다. GENERAL 일반 Enter a name ... 이름 입력... Job Name 작업 이름 Spark Cluster Spark 클러스터 Path to a .jar or .py file .jar 또는 .py 파일의 경로 The selected local file will be uploaded to HDFS: {0} 선택한 로컬 파일이 HDFS에 업로드됩니다. {0} JAR/py File JAR/py 파일 Main Class 주 클래스 Arguments 인수 Command line arguments used in your main class, multiple arguments should be split by space. 주 클래스에 사용되는 명령줄 인수입니다. 여러 인수는 공백으로 구분해야 합니다. Property Job Name is not specified. 속성 작업 이름을 지정하지 않았습니다. Property JAR/py File is not specified. 속성 JAR/py 파일을 지정하지 않았습니다. Property Main Class is not specified. 속성 주 클래스를 지정하지 않았습니다. {0} does not exist in Cluster or exception thrown. {0}이(가) 클러스터에 없거나 예외가 throw되었습니다. The specified HDFS file does not exist. 지정된 HDFS 파일이 없습니다. Select 선택 Error in locating the file due to Error: {0} 오류로 인한 파일 찾기 오류: {0} ADVANCED 고급 Reference Jars 참조 Jar Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) 실행기 작업 디렉터리에 배치할 Jar입니다. Jar 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Reference py Files 참조 py 파일 Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 실행기 작업 디렉터리에 배치할 Py 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Reference Files 참조 파일 Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 실행기 작업 디렉터리에 배치할 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다. Please provide the password to connect to HDFS: HDFS에 연결하려면 암호를 제공하세요. Session for node {0} does not exist {0} 노드의 세션이 없습니다. Error notifying of node change: {0} 노드 변경 알리기 오류: {0} HDFS HDFS Root 루트 Error: {0} 오류: {0} Cannot delete a connection. Only subfolders and files can be deleted. 연결을 삭제할 수 없습니다. 하위 폴더와 파일만 삭제할 수 있습니다. Stream operation canceled by the user 사용자가 취소한 스트림 작업 Metrics Dashboard 메트릭 대시보드 Log Search Dashboard 로그 검색 대시보드 Spark Jobs Management and Monitoring Dashboard Spark 작업 관리 및 모니터링 대시보드 Spark Diagnostics and Monitoring Dashboard Spark 진단 및 모니터링 대시보드 Copy 복사 Application Proxy 애플리케이션 프록시 Cluster Management Service 클러스터 관리 서비스 Gateway to access HDFS files, Spark HDFS 파일에 액세스하기 위한 게이트웨이, Spark Management Proxy 관리 프록시 Management Proxy 관리 프록시 SQL Server Master Instance Front-End SQL Server 마스터 인스턴스 프런트 엔드 Metrics Dashboard 메트릭 대시보드 Log Search Dashboard 로그 검색 대시보드 Spark Diagnostics and Monitoring Dashboard Spark 진단 및 모니터링 대시보드 Spark Jobs Management and Monitoring Dashboard Spark 작업 관리 및 모니터링 대시보드 HDFS File System Proxy HDFS 파일 시스템 프록시 Proxy for running Spark statements, jobs, applications Spark 문, 작업, 애플리케이션 실행을 위한 프록시 {0} Started {0}이(가) 시작됨 Starting {0} {0}을(를) 시작하는 중 Failed to start {0} {0}을(를) 시작하지 못함 Installing {0} to {1} {1}에 {0} 설치 중 Installing {0} {0} 설치 중 Installed {0} 설치된 {0} Downloading {0} {0} 다운로드 중 ({0} KB) ({0}KB) Downloading {0} {0} 다운로드 중 Done installing {0} {0} 설치 완료