Copy복사Application Proxy애플리케이션 프록시Cluster Management Service클러스터 관리 서비스Gateway to access HDFS files, SparkHDFS 파일에 액세스하기 위한 게이트웨이, SparkMetrics Dashboard메트릭 대시보드Log Search Dashboard로그 검색 대시보드Proxy for running Spark statements, jobs, applicationsSpark 문, 작업, 애플리케이션 실행을 위한 프록시Management Proxy관리 프록시Management Proxy관리 프록시Spark Jobs Management and Monitoring DashboardSpark 작업 관리 및 모니터링 대시보드SQL Server Master Instance Front-EndSQL Server 마스터 인스턴스 프런트 엔드HDFS File System ProxyHDFS 파일 시스템 프록시Spark Diagnostics and Monitoring DashboardSpark 진단 및 모니터링 대시보드Metrics Dashboard메트릭 대시보드Log Search Dashboard로그 검색 대시보드Spark Jobs Management and Monitoring DashboardSpark 작업 관리 및 모니터링 대시보드Spark Diagnostics and Monitoring DashboardSpark 진단 및 모니터링 대시보드Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 선택하지 않았습니다. 쿼리를 다시 시도하고 메시지가 표시되면 연결된 Azure 계정을 선택하세요.Please select a linked Azure account:연결된 Azure 계정을 선택하세요.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.{0}에 대해 구성된 Azure 계정에 Always Encrypted의 열 마스터 키에 액세스할 수 있는 Azure Key Vault에 대한 권한이 없습니다.Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio는 Always Encrypted의 열 마스터 키에 액세스하려면 Azure Key Vault에 연결해야 하지만, 연결된 Azure 계정을 사용할 수 없습니다. 연결된 Azure 계정을 추가하고 쿼리를 다시 시도하세요.Error applying permission changes: {0}권한 변경 내용 적용 오류: {0}Applying permission changes to '{0}'.권한 변경 내용을 '{0}'에 적용하는 중입니다.Applying permission changes recursively under '{0}''{0}'에서 권한 변경 내용을 재귀적으로 적용하는 중Permission changes applied successfully.권한 변경 내용을 적용했습니다.Bad Request잘못된 요청Unauthorized권한 없음Forbidden금지됨Not Found찾을 수 없음Internal Server Error내부 서버 오류Invalid Data Structure잘못된 데이터 구조Unable to create WebHDFS client due to missing options: ${0}누락된 옵션으로 인해 WebHDFS 클라이언트를 만들 수 없습니다. ${0}'${0}' is undefined.'${0}'이(가) 정의되지 않았습니다.Unexpected Redirect예기치 않은 리디렉션Unknown Error알 수 없는 오류Node Command called without any node passed노드가 전달되지 않고 호출된 노드 명령Access액세스Add추가Add User or Group사용자 또는 그룹 추가Apply적용Apply Recursively재귀적으로 적용Default기본값Default User and Groups기본 사용자 및 그룹Delete삭제Enter name이름 입력Unexpected error occurred while applying changes : {0}변경 내용을 적용하는 동안 예기치 않은 오류가 발생했습니다. {0}Everyone else모든 사용자Execute실행Group그룹Group그룹Inherit Defaults기본값 상속Location : 위치: Manage Access액세스 관리Named Users and Groups명명된 사용자 및 그룹Owner소유자 - Owner - 소유자 - Owning Group - 소유 그룹Permissions권한Read읽기Sticky Bit고정 비트User사용자User or Group Icon사용자 또는 그룹 아이콘Write쓰기Please connect to the Spark cluster before View {0} History.{0} 기록을 보려면 먼저 Spark 클러스터에 연결하세요.Get Application Id Failed. {0}애플리케이션 ID를 가져오지 못했습니다. {0}Local file will be uploaded to HDFS. 로컬 파일이 HDFS에 업로드됩니다. Local file {0} does not existed. 로컬 파일 {0}이(가) 없습니다. No SQL Server Big Data Cluster found.SQL Server 빅 데이터 클러스터를 찾을 수 없습니다.Submitting job {0} ... {0} 작업을 제출하는 중... Uploading file from local {0} to HDFS folder: {1}로컬 {0}에서 HDFS 폴더로 파일 업로드 중: {1}Spark History Url: {0} Spark 기록 URL: {0} .......................... Submit Spark Job End ...................................................... Spark 작업 제출 종료 ................................................Spark Job Submission Failed. {0} Spark 작업 {0}을(를) 제출하지 못했습니다. The Spark Job has been submitted.Spark 작업을 제출했습니다.Upload file to cluster Failed. {0}클러스터에 파일을 업로드하지 못했습니다. {0}Upload file to cluster Succeeded!클러스터에 파일을 업로드했습니다.YarnUI Url: {0} YarnUI URL: {0} This sample code loads the file into a data frame and shows the first 10 results.이 샘플 코드는 파일을 데이터 프레임에 로드하고 처음 10개의 결과를 표시합니다.An error occurred converting the SQL document to a Notebook. Error : {0}SQL 문서를 Notebook으로 변환하는 동안 오류가 발생했습니다. 오류: {0}An error occurred converting the Notebook document to SQL. Error : {0}Notebook 문서를 SQL로 변환하는 동안 오류가 발생했습니다. 오류: {0}Could not find the controller endpoint for this instance이 인스턴스의 컨트롤러 엔드포인트를 찾을 수 없음NotebooksNotebookOnly .ipynb Notebooks are supported.ipynb Notebook만 지원됩니다.Stream operation canceled by the user사용자가 취소한 스트림 작업Cancel operation?작업 취소 여부Cancel취소Search Server Names서버 이름 검색$(sync~spin) {0}...$(sync~spin) {0}...Some missing properties in connectionInfo.options: {0}connectionInfo.options에서 일부 속성이 누락되었습니다. {0}ConnectionInfo.options is undefined.ConnectionInfo.options가 정의되지 않았습니다.ConnectionInfo is undefined.ConnectionInfo가 정의되지 않았습니다.NOTICE: This file has been truncated at {0} for preview. 알림: 이 파일은 미리 보기를 위해 {0}에서 잘렸습니다. The file has been truncated at {0} for preview.이 파일은 미리 보기를 위해 {0}에서 잘렸습니다.All Files모든 파일Error on copying path: {0}경로 복사 오류: {0}Error on deleting files: {0}파일 삭제 오류: {0}Enter directory name디렉터리 이름 입력Upload업로드Creating directory디렉터리를 만드는 중An unexpected error occurred while opening the Manage Access dialog: {0}액세스 관리 대화 상자를 여는 동안 예기치 않은 오류가 발생했습니다. {0}Error on making directory: {0}디렉터리 만들기 오류: {0}Operation was canceled작업이 취소되었습니다.Are you sure you want to delete this file?이 파일을 삭제하시겠습니까?Are you sure you want to delete this folder and its contents?이 폴더와 해당 내용을 삭제하시겠습니까?Error on previewing file: {0}파일 미리 보기 오류: {0}Generating preview미리 보기 생성 중Save operation was canceled저장 작업이 취소되었습니다.Error on saving file: {0}파일 저장 오류: {0}Saving HDFS FilesHDFS 파일 저장 중Upload operation was canceled업로드 작업이 취소되었습니다.Error uploading files: {0}파일 업로드 오류: {0}Uploading files to HDFSHDFS로 파일 업로드 중Cannot delete a connection. Only subfolders and files can be deleted.연결을 삭제할 수 없습니다. 하위 폴더와 파일만 삭제할 수 있습니다.Error: {0}오류: {0}HDFSHDFSError notifying of node change: {0}노드 변경 알리기 오류: {0}Please provide the password to connect to HDFS:HDFS에 연결하려면 암호를 제공하세요.Please provide the username to connect to HDFS:HDFS에 연결하려면 사용자 이름을 제공하세요.Root루트Session for node {0} does not exist{0} 노드의 세션이 없습니다.No아니요Yes예The selected server does not belong to a SQL Server Big Data Cluster선택한 서버가 SQL Server 빅 데이터 클러스터에 속하지 않습니다.Select other SQL Server다른 SQL Server 선택Error Get File Path: {0}파일 경로 가져오기 오류: {0}No SQL Server is selected.SQL Server를 선택하지 않았습니다.Please select SQL Server with Big Data Cluster.빅 데이터 클러스터가 있는 SQL Server를 선택하세요.ADVANCED고급Reference Files참조 파일Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)실행기 작업 디렉터리에 배치할 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Reference Jars참조 JarJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)실행기 작업 디렉터리에 배치할 Jar입니다. Jar 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Reference py Files참조 py 파일Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)실행기 작업 디렉터리에 배치할 Py 파일입니다. 파일 경로는 HDFS 경로여야 합니다. 여러 경로는 세미콜론(;)으로 구분해야 합니다.Configuration Values구성 값List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Spark 구성 값을 포함하는 이름 값 쌍 목록입니다. JSON 사전으로 인코딩됩니다. 예: '{"name":"value", "name2":"value2"}'.Driver Cores드라이버 코어Amount of CPU cores to allocate to the driver.드라이버에 할당할 CPU 코어 양입니다.Driver Memory드라이버 메모리Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.드라이버에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다.Executor Cores실행기 코어Amount of CPU cores to allocate to the executor.실행기에 할당할 CPU 코어 양입니다.Executor Count실행기 수Number of instances of the executor to run.실행할 실행기 인스턴스의 수입니다.Executor Memory실행기 메모리Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.실행기에 할당할 메모리의 양입니다. 값의 일부로 단위를 지정합니다. 예를 들면 512M 또는 2G입니다.Queue Name큐 이름Name of the Spark queue to execute the session in.세션을 실행할 Spark 큐의 이름입니다.Arguments인수Command line arguments used in your main class, multiple arguments should be split by space.주 클래스에 사용되는 명령줄 인수입니다. 여러 인수는 공백으로 구분해야 합니다.Path to a .jar or .py file.jar 또는 .py 파일의 경로GENERAL일반The specified HDFS file does not exist. 지정된 HDFS 파일이 없습니다. {0} does not exist in Cluster or exception thrown. {0}이(가) 클러스터에 없거나 예외가 throw되었습니다. Job Name작업 이름Enter a name ...이름 입력...The selected local file will be uploaded to HDFS: {0}선택한 로컬 파일이 HDFS에 업로드됩니다. {0}Main Class주 클래스JAR/py FileJAR/py 파일Property JAR/py File is not specified.속성 JAR/py 파일을 지정하지 않았습니다.Property Job Name is not specified.속성 작업 이름을 지정하지 않았습니다.Property Main Class is not specified.속성 주 클래스를 지정하지 않았습니다.Error in locating the file due to Error: {0}오류로 인한 파일 찾기 오류: {0}Spark ClusterSpark 클러스터Select선택Cancel취소Submit제출New Job새 작업Parameters for SparkJobSubmissionDialog is illegalSparkJobSubmissionDialog에 대한 매개 변수가 잘못되었습니다........................... Submit Spark Job Start .................................................... Spark 작업 제출 시작 ...................................{0} Spark Job Submission:{0} Spark 작업 제출:Get Application Id time out. {0}[Log] {1}애플리케이션 ID 시간 제한을 가져옵니다. {0}[로그] {1}livyBatchId is invalid. livyBatchId가 잘못되었습니다. Property Path is not specified. 속성 경로를 지정하지 않았습니다. Parameters for SparkJobSubmissionModel is illegalSparkJobSubmissionModel의 매개 변수가 잘못되었습니다.Property localFilePath or hdfsFolderPath is not specified. localFilePath 또는 hdfsFolderPath 속성을 지정하지 않았습니다. submissionArgs is invalid. submissionArgs가 잘못되었습니다. No Spark job batch id is returned from response.{0}[Error] {1}응답에서 Spark 작업 일괄 처리 ID가 반환되지 않았습니다. {0}[오류] {1}No log is returned within response.{0}[Error] {1}응답 내에 로그가 반환되지 않았습니다. {0}[오류] {1}Error: {0}. 오류: {0}. Please provide the password to connect to the BDC ControllerBDC 컨트롤러에 연결하려면 암호를 제공하세요.{0}Please provide the username to connect to the BDC Controller:{0}BDC 컨트롤러에 연결하려면 사용자 이름을 제공하세요.Username and password are required사용자 이름과 암호가 필요합니다.Done installing {0}{0} 설치 완료Downloading {0}{0} 다운로드 중({0} KB)({0}KB)Downloading {0}{0} 다운로드 중Extracted {0} ({1}/{2})추출된 {0}({1}/{2})Failed to start {0}{0}을(를) 시작하지 못함Installed {0}설치된 {0}Installing {0} to {1}{1}에 {0} 설치 중Installing {0}{0} 설치 중{0} Started{0}이(가) 시작됨Starting {0}{0}을(를) 시작하는 중{0} component exited unexpectedly. Please restart Azure Data Studio.{0} 구성 요소가 예기치 않게 종료되었습니다. Azure Data Studio를 다시 시작하세요.View Known Issues알려진 문제 보기Edition버전Compatibility Level호환성 수준Owner소유자Pricing Tier가격 책정 계층Type형식Version버전Last backup마지막 백업Name이름Size (MB)크기(MB)Status상태Enable/disable default JSON formatter (requires restart)기본 JSON 포맷터 사용/사용 안 함(다시 시작해야 함)Associate schemas to JSON files in the current project현재 프로젝트에서 스키마를 JSON 파일에 연결An array of file patterns to match against when resolving JSON files to schemas.JSON 파일로 스키마를 확인할 때 일치할 파일 패턴의 배열입니다.A file pattern that can contain '*' to match against when resolving JSON files to schemas.JSON 파일로 스키마를 확인할 때 일치할 '*'를 포함할 수 있는 파일 패턴입니다.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.지정된 URL의 스키마 정의입니다. 스키마는 스키마 URL에 대한 액세스 방지를 위해서만 제공해야 합니다.A URL to a schema or a relative path to a schema in the current directory현재 디렉터리에 있는 스키마의 URL 또는 상대 경로MSSQL configurationMSSQL 구성Declares the application workload type when connecting to a server서버에 연결할 때 애플리케이션 워크로드 형식을 선언합니다.Application intent애플리케이션 의도The name of the application애플리케이션의 이름Application name애플리케이션 이름When true, enables usage of the Asynchronous functionality in the .Net Framework Data Providertrue인 경우 .NET Framework 데이터 공급자에서 비동기 기능의 사용을 활성화합니다.Asynchronous processing비동기 처리Attach DB filenameDB 파일 이름 연결The name of the primary file, including the full path name, of an attachable database연결할 수 있는 데이터베이스의 기본 파일 이름(전체 경로 이름 포함)Attached DB file name연결된 DB 파일 이름Azure Active Directory - Universal with MFA supportAzure Active Directory - MFA가 지원되는 유니버설Windows AuthenticationWindows 인증SQL LoginSQL 로그인Specifies the method of authenticating with SQL ServerSQL Server로 인증하는 방법을 지정합니다.Authentication type인증 유형Enables or disables Always Encrypted for the connection연결에 Always Encrypted 기능 사용 또는 사용 안 함Always EncryptedAlways EncryptedNumber of attempts to restore connection연결 복구 시도의 횟수Connect retry count연결 다시 시도 횟수Delay between attempts to restore connection연결 복구 시도 간 지연 시간Connect retry interval연결 다시 시도 간격The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error연결 시도를 중단하고 오류를 생성하기 전 서버에 연결될 때까지의 대기 시간(초)입니다.Connect timeout연결 시간 제한Custom name of the connection연결의 사용자 지정 이름Name (optional)이름(옵션)When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processtrue인 경우 연결이 SQL Server 컨텍스트에서 시작되어야 함을 나타냅니다. SQL Server 프로세스에서 실행 중인 경우에만 사용할 수 있습니다.Context connection컨텍스트 연결The SQL Server language record nameSQL Server 언어 레코드 이름Current language현재 언어The name of the initial catalog or database int the data source데이터 원본에 있는 초기 카탈로그 또는 데이터베이스의 이름Database데이터베이스Azure AttestationAzure AttestationHost Guardian Service호스트 보호 서비스Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 프로토콜 지정Attestation Protocol증명 프로토콜Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves보안 enclave를 사용한 Always Encrypted와 함께 사용되는 서버 쪽 enclave를 증명하기 위한 엔드포인트 지정Enclave Attestation URLEnclave 증명 URLWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedtrue인 경우 서버에 인증서가 설치되어 있으면 SQL Server는 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.Encrypt암호화The name or network address of the instance of SQL Server that acts as a failover partner장애 조치(failover) 파트너 역할을 하는 SQL Server 인스턴스의 이름 또는 네트워크 주소Failover partner장애 조치(failover) 파트너Advanced고급Connection Resiliency연결 복구Context컨텍스트Initialization초기화Pooling풀링Replication복제Security보안Source원본The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed이 연결이 제거되기 전에 풀에서 활성화되어 있는 최소 시간(초)입니다.Load balance timeout부하 분산 시간 제한The maximum number of connections allowed in the pool풀에서 허용되는 최대 연결 수Max pool size최대 풀 크기The minimum number of connections allowed in the pool풀에서 허용되는 최소 연결 수Min pool size최소 풀 크기Multi subnet failover다중 서브넷 장애 조치(failover)When true, multiple result sets can be returned and read from one connectiontrue인 경우 한 연결에서 여러 결과 집합을 반환하고 읽을 수 있습니다.Multiple active result sets여러 개의 활성 결과 집합Size in bytes of the network packets used to communicate with an instance of SQL ServerSQL Server 인스턴스와 통신하는 데 사용되는 네트워크 패킷의 크기(바이트)Packet size패킷 크기Indicates the password to be used when connecting to the data source데이터 원본에 연결할 때 사용할 암호를 나타냅니다.Password암호When false, security-sensitive information, such as the password, is not returned as part of the connectionfalse이면 보안상 중요한 정보(예: 암호)를 연결의 일부로 반환하지 않습니다.Persist security info보안 정보 유지When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pooltrue이면 해당 풀에서 연결 개체를 끌어 오거나 필요한 경우 연결 개체를 만들어 해당 풀에 추가합니다.Pooling풀링Port포트Used by SQL Server in Replication복제에서 SQL Server가 사용합니다.Replication복제Name of the SQL Server instanceSQL Server 인스턴스의 이름Server서버When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificatetrue(및 encrypt=true)인 경우 SQL Server는 서버 인증서의 유효성을 검사하지 않고 클라이언트와 서버 간에 전송된 모든 데이터에 대해 SSL 암호화를 사용합니다.Trust server certificate서버 인증서 신뢰Indicates which server type system the provider will expose through the DataReader공급자가 DataReader를 통해 공개할 서버 유형 시스템을 나타냄Type system version형식 시스템 버전Indicates the user ID to be used when connecting to the data source데이터 원본에 연결할 때 사용할 사용자 ID를 나타냅니다.User name사용자 이름The name of the workstation connecting to SQL ServerSQL Server에 연결하는 워크스테이션의 이름Workstation Id워크스테이션 IDDisabled사용 안 함Enabled사용Export Notebook as SQLNotebook을 SQL로 내보내기Export SQL as NotebookSQL을 Notebook으로 내보내기Should column definitions be aligned?열 정의 정렬 여부Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)데이터 형식을 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)키워드를 대문자, 소문자 또는 없음(서식 없음)으로 지정할지 여부should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'목록의 각 문 앞에 쉼표를 표시할지 여부(예: 끝에 'mycolumn1' 대신 ', mycolumn2' 사용)Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSelect 문에서 개체에 대한 참조를 별도 줄에 분할할지 여부(예: 'SELECT C1, C2 FROM T1'의 경우 C1 및 C2를 별도의 줄에 표시함)[Optional] Do not show unsupported platform warnings[옵션] 지원되지 않는 플랫폼 경고 표시 안 함Should IntelliSense error checking be enabledIntelliSense 오류 검사 사용 여부Should IntelliSense be enabledIntelliSense 사용 여부Should IntelliSense quick info be enabledIntelliSense 빠른 정보 사용 여부Should IntelliSense suggestions be enabledIntelliSense 제안 사용 여부Should IntelliSense suggestions be lowercaseIntelliSense 제안을 소문자로 표시할지 여부[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[옵션] 디버그 출력을 콘솔에 로깅한 다음(보기 -> 출력), 드롭다운에서 해당 출력 채널을 선택합니다.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.시작 시 제거하려고 하며 mssql.logRetentionMinutes가 만료된 이전 파일의 최대 수입니다. 이 제한으로 인해 정리되지 않은 파일은 다음에 Azure Data Studio를 시작할 때 정리됩니다.Number of minutes to retain log files for backend services. Default is 1 week.백 엔드 서비스의 로그 파일을 유지하는 시간(분)입니다. 기본값은 1주일입니다.Microsoft SQL ServerMicrosoft SQL ServerEnable Parameterization for Always EncryptedAlways Encrypted에 매개 변수화 사용Enable SET ANSI_DEFAULTSSET ANSI_DEFAULTS 사용Enable SET ANSI_NULL_DFLT_ONSET ANSI_NULL_DFLT_ON 사용Enable SET ANSI_NULLSSET ANSI_NULLS 사용Enable SET ANSI_PADDINGSET ANSI_PADDING 사용Enable SET ANSI_WARNINGSSET ANSI_WARNINGS 사용Enable SET ARITHABORT optionSET ARITHABORT 옵션 사용Enable SET CURSOR_CLOSE_ON_COMMITSET CURSOR_CLOSE_ON_COMMIT 사용Enable SET DEADLOCK_PRIORITY optionSET DEADLOCK_PRIORITY 옵션 사용Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'BIT 열을 숫자(1 또는 0)로 표시할지 여부. False이면 BIT 열을 'true' 또는 'false'로 표시합니다.An execution time-out of 0 indicates an unlimited wait (no time-out)실행 시간 제한이 0이면 무제한 대기(시간 제한 없음)를 나타냅니다.Enable SET IMPLICIT_TRANSACTIONSSET IMPLICIT_TRANSACTIONS 사용Enable SET LOCK TIMEOUT option (in milliseconds)SET LOCK TIMEOUT 옵션 사용(밀리초)Number of XML characters to store after running a query쿼리를 실행한 후 저장할 XML 문자 수Enable SET NOCOUNT optionSET NOCOUNT 옵션 사용Enable SET NOEXEC optionSET NOEXEC 옵션 사용Enable SET PARSEONLY optionSET PARSEONLY 옵션 사용Enable SET QUERY_GOVERNOR_COST_LIMITSET QUERY_GOVERNOR_COST_LIMIT 사용Enable SET QUOTED_IDENTIFIERSET QUOTED_IDENTIFIER 사용Maximum number of rows to return before the server stops processing your query.서버가 쿼리 처리를 중지하기 전에 반환할 최대 행 수입니다.Enable SET STATISTICS IO optionSET STATISTICS IO 옵션 사용Enable SET STATISTICS TIME optionSET STATISTICS TIME 옵션 사용Maximum size of text and ntext data returned from a SELECT statementSELECT 문에서 반환되는 text 및 ntext 데이터의 최대 크기Enable SET TRANSACTION ISOLATION LEVEL optionSET TRANSACTION ISOLATION LEVEL 옵션 사용Enable SET XACT_ABORT ON optionSET XACT_ABORT ON 옵션 사용[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[옵션] 백 엔드 서비스의 로그 수준입니다. Azure Data Studio는 시작할 때마다 파일 이름을 생성하며 파일이 이미 있으면 로그 항목이 해당 파일에 추가됩니다. 이전 로그 파일을 정리하려면 logRetentionMinutes 및 logFilesRemovalLimit 설정을 참조하세요. 기본 tracingLevel에서는 많은 양의 로그가 기록되지 않습니다. 세부 정보 표시를 변경하면 로깅이 광범위해지고 로그의 디스크 공간 요구 사항이 커질 수 있습니다. 오류이면 중요가 포함되고 경고이면 오류가 포함되고 정보이면 경고가 포함되고 세부 정보 표시이면 정보가 포함됩니다.Copy Path경로 복사Delete삭제Manage Access액세스 관리New directory새 디렉터리Preview미리 보기Save저장Upload files파일 업로드New Notebook새 NotebookOpen NotebookNotebook 열기Name이름Compatibility Level호환성 수준Last Database Backup마지막 데이터베이스 백업Last Log Backup마지막 로그 백업Owner소유자Recovery Model복구 모델Computer Name컴퓨터 이름OS VersionOS 버전Edition버전Version버전Tasks and information about your SQL Server Big Data ClusterSQL Server 빅 데이터 클러스터에 대한 작업 및 정보SQL Server Big Data ClusterSQL Server 빅 데이터 클러스터NotebooksNotebookSearch: Clear Search Server Results검색: 검색 서버 결과 지우기Configure Python for NotebooksNotebook용 Python 구성Design디자인Service Endpoints서비스 엔드포인트Install Packages패키지 설치New Spark Job새 Spark 작업New Table새 테이블Cluster
Dashboard클러스터
대시보드View Spark HistorySpark 기록 보기View Yarn HistoryYarn 기록 보기Search: Servers검색: 서버Show Log File로그 파일 표시Submit Spark JobSpark 작업 제출Tasks작업