Associate schemas to JSON files in the current projectAsociar esquemas a archivos JSON en el proyecto actualA URL to a schema or a relative path to a schema in the current directoryUna dirección URL a un esquema o una ruta de acceso relativa a un esquema en el directorio actualAn array of file patterns to match against when resolving JSON files to schemas.Una matriz de patrones de archivo con los cuales coincidir cuando los archivos JSON se resuelvan en esquemas.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Un patrón de archivo que puede contener "*" con el cual coincidir cuando los archivos JSON se resuelvan en esquemas.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.La definición de esquema de la dirección URL determinada. Solo se necesita proporcionar el esquema para evitar los accesos a la dirección URL del esquema.Enable/disable default JSON formatter (requires restart)Habilitar/deshabilitar formateador JSON predeterminado (requiere reiniciar)Upload filesCargar archivosNew directoryNuevo directorioDeleteEliminarPreviewVersión preliminarSaveGuardarCopy PathCopiar ruta de accesoManage AccessAdministrar el accesoNew NotebookNuevo NotebookOpen NotebookAbrir NotebookTasks and information about your SQL Server Big Data ClusterTareas e información sobre el clúster de macrodatos de SQL ServerSQL Server Big Data ClusterClúster de macrodatos de SQL ServerSubmit Spark JobEnviar trabajo de SparkNew Spark JobNuevo trabajo de SparkView Spark HistoryVer el historial de SparkView Yarn HistoryVer historial de YarnTasksTareasInstall PackagesInstalar paquetesConfigure Python for NotebooksConfigurar Python para NotebooksCluster
DashboardPanel del
clústerSearch: ServersBuscar: ServidoresSearch: Clear Search Server ResultsBuscar: Borrar los resultados del servidor de búsquedaService EndpointsPuntos de conexión de servicioNotebooksNotebooksShow Log FileMostrar archivo de registroDisabledDeshabilitadoEnabledHabilitadoExport Notebook as SQLExportar cuaderno como SQLExport SQL as NotebookExportar SQL como cuadernoMSSQL configurationConfiguración de MSSQLShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'¿Deben mostrarse las columnas BIT como números (1 o 0)? Si es false, las columnas BIT se mostrarán como "true" o "false".Number of XML characters to store after running a queryNúmero de caracteres XML que se almacenarán después de ejecutar una consulta.Should column definitions be aligned?Indica si las definiciones de columna deben alinearse.Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)Indica si los tipos de datos deben formatearse como MAYÚSCULAS, minúsculas o nada (sin formato).Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Indica si las palabras clave deben formatearse como MAYÚSCULAS, minúsculas o nada (sin formato).should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Indica si las comas deben colocarse al principio de cada instrucción de una lista por ejemplo, ", micolumna2" en lugar de al final, por ejemplo, "micolumna1,".Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines¿Deben separarse en líneas distintas las referencias a objetos de las instrucciones select? Por ejemplo, en "SELECT C1, C2 FROM T1", C1 y C2 estarán en líneas separadas[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Opcional] Registre la salida de depuración en a la consola (Ver -> Salida) y después seleccione el canal de salida apropiado del menú desplegable[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Opcional] El nivel de registro para servicios back-end. Azure Data Studio genera un nombre de archivo cada vez que se inicia y, si el archivo ya existe, las entradas de registros se anexan a ese archivo. Para la limpieza de archivos de registro antiguos, consulte la configuración de logRetentionMinutes y logFilesRemovalLimit. El valor predeterminado tracingLevel no registra mucho. El cambio de detalle podría dar lugar a amplios requisitos de registro y espacio en disco para los registros. Error incluye Crítico, Advertencia incluye Error, Información incluye Advertencia y Detallado incluye Información.Number of minutes to retain log files for backend services. Default is 1 week.Número de minutos para conservar los archivos de registro para los servicios back-end. El valor predeterminado es 1 semana.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Número máximo de archivos antiguos para quitarse en el inicio que tienen expirado el valor mssql.logRetentionMinutes. Los archivos que no se limpien debido a esta limitación se limpiarán la próxima vez que se inicie Azure Data Studio.Should IntelliSense be enabledIndica si debe habilitarse IntelliSense.Should IntelliSense error checking be enabledIndica si debe habilitarse la comprobación de errores de IntelliSense.Should IntelliSense suggestions be enabledIndica si deben habilitarse las sugerencias de IntelliSense.Should IntelliSense quick info be enabledIndica si debe habilitarse la información rápida de IntelliSense.Should IntelliSense suggestions be lowercaseIndica si las sugerencias de IntelliSense deben estar en minúsculas.Maximum number of rows to return before the server stops processing your query.Número máximo de filas para devolver antes de que el servidor deje de procesar la consulta.Maximum size of text and ntext data returned from a SELECT statementTamaño máximo del texto y datos de ntext devueltos por una instrucción SELECTAn execution time-out of 0 indicates an unlimited wait (no time-out)Un tiempo de espera de ejecución de 0 indica una espera ilimitada (sin tiempo de espera)Enable SET NOCOUNT optionHabilitar la opción SET NOCOUNTEnable SET NOEXEC optionHabilitar la opción SET NOEXECEnable SET PARSEONLY optionHabilitar la opción SET PARSEONLYEnable SET ARITHABORT optionHabilitar la opción SET ARITHABORTEnable SET STATISTICS TIME optionHabilitar la opción SET STATISTICS TIMEEnable SET STATISTICS IO optionHabilitar la opción SET STATISTICS IOEnable SET XACT_ABORT ON optionHabilitar la opción SET XACT_ABORT ONEnable SET TRANSACTION ISOLATION LEVEL optionHabilitar la opción SET TRANSACTION ISOLATION LEVELEnable SET DEADLOCK_PRIORITY optionHabilitar la opción SET DEADLOCK_PRIORITYEnable SET LOCK TIMEOUT option (in milliseconds)Habilitar la opción SET LOCK TIMEOUT (en milisegundos)Enable SET QUERY_GOVERNOR_COST_LIMITHabilitar SET QUERY_GOVERNOR_COST_LIMITEnable SET ANSI_DEFAULTSHabilitar SET ANSI_DEFAULTSEnable SET QUOTED_IDENTIFIERHabilitar SET QUOTED_IDENTIFIEREnable SET ANSI_NULL_DFLT_ONHabilitar SET ANSI_NULL_DFLT_ONEnable SET IMPLICIT_TRANSACTIONSHabilitar SET IMPLICIT_TRANSACTIONSEnable SET CURSOR_CLOSE_ON_COMMITHabilitar SET CURSOR_CLOSE_ON_COMMITEnable SET ANSI_PADDINGHabilitar SET ANSI_PADDINGEnable SET ANSI_WARNINGSHabilitar SET ANSI_WARNINGSEnable SET ANSI_NULLSHabilitar SET ANSI_NULLSEnable Parameterization for Always EncryptedHabilitar parametrización de Always Encrypted[Optional] Do not show unsupported platform warnings[Opcional] No mostrar advertencias de plataformas no compatiblesRecovery ModelModelo de recuperaciónLast Database BackupÚltima copia de seguridad de la base de datosLast Log BackupÚltima copia de seguridad de registrosCompatibility LevelNivel de compatibilidadOwnerPropietarioVersionVersiónEditionEdiciónComputer NameNombre del equipoOS VersionVersión del sistema operativoEditionEdiciónPricing TierPlan de tarifaCompatibility LevelNivel de compatibilidadOwnerPropietarioVersionVersiónTypeTipoMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Nombre (opcional)Custom name of the connectionNombre personalizado de la conexiónServerServidorName of the SQL Server instanceNombre de la instancia de SQL ServerDatabaseBase de datosThe name of the initial catalog or database int the data sourceNombre del catálogo o base de datos inicial del origen de datosAuthentication typeTipo de autenticaciónSpecifies the method of authenticating with SQL ServerEspecifica el método de autenticación con SQL ServerSQL LoginInicio de sesión SQLWindows AuthenticationAutenticación de WindowsAzure Active Directory - Universal with MFA supportAzure Active Directory: universal con compatibilidad con MFAUser nameNombre del usuarioIndicates the user ID to be used when connecting to the data sourceIndica el identificador de usuario que se va a usar al conectar con el origen de datosPasswordContraseñaIndicates the password to be used when connecting to the data sourceIndica la contraseña que se utilizará al conectarse al origen de datosApplication intentIntención de la aplicaciónDeclares the application workload type when connecting to a serverDeclara el tipo de carga de trabajo de la aplicación al conectarse a un servidorAsynchronous processingProcesamiento asincrónicoWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderCuando es true, habilita el uso de la funcionalidad asincrónica en el proveedor de datos de .NET FrameworkConnect timeoutTiempo de espera de la conexiónThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorIntervalo de tiempo (en segundos) que se debe esperar a que se establezca la conexión con el servidor antes de dejar de intentarlo y generar un errorCurrent languageIdioma actualThe SQL Server language record nameEl nombre del registro de idioma de SQL ServerAlways EncryptedAlways EncryptedEnables or disables Always Encrypted for the connectionHabilita o deshabilita Always Encrypted para la conexión.Attestation ProtocolProtocolo de atestaciónSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesEspecifica un protocolo para la atestación de un enclave de servidor empleado con Always Encrypted con enclaves seguros.Azure AttestationAtestación de AzureHost Guardian ServiceServicio de protección de hostEnclave Attestation URLDirección URL de atestación del enclaveSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesEspecifica un punto de conexión para la atestación de un enclave de servidor empleado con Always Encrypted con enclaves seguros.EncryptCifrarWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedCuando el valor es true, SQL Server utiliza cifrado SSL para todos los datos enviados entre el cliente y el servidor, cuando el servidor tiene instalado un certificadoPersist security infoInformación de seguridad persistenteWhen false, security-sensitive information, such as the password, is not returned as part of the connectionSi el valor es false, no se devuelve información confidencial de seguridad, como la contraseña, como parte de la conexiónTrust server certificateCertificado de servidor de confianzaWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateCuando es true (y encrypt=true), SQL Server usa el cifrado SSL para todos los datos enviados entre el cliente y el servidor sin validar el certificado del servidorAttached DB file nameNombre del archivo de base de datos adjuntoThe name of the primary file, including the full path name, of an attachable databaseNombre del archivo principal, incluido el nombre completo de ruta, de una base de datos que se puede adjuntarContext connectionConexión contextualWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processCuando es true, indica que la conexión debe ser desde el contexto de SQL Server. Disponible sólo cuando se ejecuta en el proceso de SQL ServerPortPuertoConnect retry countRecuento de reintentos de conexiónNumber of attempts to restore connectionNúmero de intentos para restaurar la conexiónConnect retry intervalIntervalo de reintento de conexiónDelay between attempts to restore connectionRetraso entre intentos para restaurar la conexiónApplication nameNombre de la aplicaciónThe name of the applicationEl nombre de la aplicaciónWorkstation IdId. de estación de trabajoThe name of the workstation connecting to SQL ServerEl nombre de la estación de trabajo que se conecta a SQL ServerPoolingAgrupaciónWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolCuando el valor es true, el objeto de conexión se obtiene del grupo apropiado, o si es necesario, se crea y agrega al grupo apropiadoMax pool sizeTamaño máximo del grupoThe maximum number of connections allowed in the poolEl número máximo de conexiones permitidas en el grupoMin pool sizeTamaño mínimo del grupoThe minimum number of connections allowed in the poolEl número mínimo de conexiones permitidas en el grupoLoad balance timeoutTiempo de espera del equilibrio de cargaThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedPeriodo mínimo de tiempo (en segundos) que residirá esta conexión en el grupo antes de que se destruyaReplicationReplicaciónUsed by SQL Server in ReplicationUtilizado por SQL Server en replicaciónAttach DB filenameAdjuntar nombre de archivo de base de datosFailover partnerSocio de conmutación por errorThe name or network address of the instance of SQL Server that acts as a failover partnerEl nombre o la dirección de red de la instancia de SQL Server que actúa como asociado para la conmutación por errorMulti subnet failoverConmutación por error de varias subredesMultiple active result setsConjuntos de resultados activos múltiples (MARS)When true, multiple result sets can be returned and read from one connectionCuando el valor es true, se pueden devolver varios conjuntos de resultados y leerlos desde una conexión.Packet sizeTamaño del paqueteSize in bytes of the network packets used to communicate with an instance of SQL ServerTamaño en bytes de los paquetes de red utilizados para comunicarse con una instancia de SQL ServerType system versionVersión de sistema de tipoIndicates which server type system the provider will expose through the DataReaderIndica qué sistema de tipo de servidor el proveedor expondrá por medio de DataReader.NameNombreStatusEstadoSize (MB)Tamaño (MB)Last backupÚltima copia de seguridadNameNombreNode Command called without any node passedSe ha llamado al comando de nodo sin pasar ningún nodoManage AccessAdministrar el accesoLocation : Ubicación: PermissionsPermisos - Owner - PropietarioOwnerPropietarioGroupGrupo - Owning Group - Grupo propietarioEveryone elseTodos los demásUserUsuarioGroupAgruparAccessAccesoDefaultPredeterminadoDeleteEliminarSticky BitSticky BitInherit DefaultsHeredar valores predeterminadosReadLeerWriteEscribirExecuteEjecutarAdd User or GroupAgregar usuario o grupoEnter nameEscriba el nombreAddAgregarNamed Users and GroupsUsuarios y grupos designadosDefault User and GroupsUsuario y grupos predeterminadosUser or Group IconIcono de usuario o grupoApplyAplicarApply RecursivelyAplicar recursivamenteUnexpected error occurred while applying changes : {0}Error inesperado al aplicar los cambios: {0}Local file will be uploaded to HDFS. El archivo local se cargará en HDFS. .......................... Submit Spark Job End ...................................................... Final del envío del trabajo de Spark ............................Uploading file from local {0} to HDFS folder: {1}Carga de archivo desde {0} local a la carpeta HDFS: {1}Upload file to cluster Succeeded!La carga del archivo al clúster se completó correctamenteUpload file to cluster Failed. {0}Error al cargar el archivo en el clúster. {0}Submitting job {0} ... Se está enviando el trabajo "{0}"... The Spark Job has been submitted.Se ha enviado el trabajo de Spark.Spark Job Submission Failed. {0} Error en el envío del trabajo de Spark. {0} YarnUI Url: {0} URL de YarnUI: {0} Spark History Url: {0} Url del historial de Spark: {0} Get Application Id Failed. {0}Error al obtener el identificador de aplicación. {0}Local file {0} does not existed. No existe el archivo local {0}. No SQL Server Big Data Cluster found.No se ha encontrado ningún clúster de macrodatos de SQL Server.Please connect to the Spark cluster before View {0} History.Conéctese al clúster de Spark para poder ver el historial de {0}.NOTICE: This file has been truncated at {0} for preview. AVISO: Este archivo se ha truncado en {0} para la vista previa. The file has been truncated at {0} for preview.El archivo se ha truncado en {0} para la vista previa.$(sync~spin) {0}...$(sync~spin) {0}...CancelCancelarCancel operation?¿Cancelar operación?Search Server NamesBuscar nombres de servidorNo Spark job batch id is returned from response.{0}[Error] {1}No se devuelve ningún identificador de lote de trabajo de Spark de la respuesta. {0}[Error] {1}No log is returned within response.{0}[Error] {1}No se devuelve ningún registro dentro de la respuesta.{0}[Error] {1}{0}Please provide the username to connect to the BDC Controller:{0}Especifique el nombre de usuario para conectarse al controlador de BDC:Please provide the password to connect to the BDC ControllerProporcione la contraseña para conectarse al controlador de BDC.Error: {0}. Error: {0}.Username and password are requiredEs necesario especificar el nombre de usuario y la contraseña.All FilesTodos los archivosUploadCargarUploading files to HDFSCargando archivos en HDFSUpload operation was canceledSe canceló la operación de cargaError uploading files: {0}Error al cargar los archivos: {0}Creating directoryCreando directorioOperation was canceledLa operación se cancelóError on making directory: {0}Error al crear el directorio: {0}Enter directory nameIntroduzca el nombre del directorioError on deleting files: {0}Error en la eliminación de archivos: {0}Are you sure you want to delete this folder and its contents?¿Seguro que desea eliminar esta carpeta y su contenido?Are you sure you want to delete this file?¿Seguro que desea eliminar este archivo?Saving HDFS FilesGuardando archivos HDFSSave operation was canceledSe canceló la operación de guardarError on saving file: {0}Error al guardar el archivo: {0}Generating previewGeneración de vista previaError on previewing file: {0}Error en la previsualización del archivo: {0}Error on copying path: {0}Error en la copia de la ruta de acceso: {0}An unexpected error occurred while opening the Manage Access dialog: {0}Error inesperado al abrir el cuadro de diálogo Administrar acceso: {0}Invalid Data StructureEstructura de datos no válidaUnable to create WebHDFS client due to missing options: ${0}No se ha podido crear el cliente de WebHDFS debido a que faltan opciones: ${0}'${0}' is undefined."${0}" no se ha definido.Bad RequestSolicitud incorrectaUnauthorizedNo autorizadoForbiddenProhibidoNot FoundNo encontradoInternal Server ErrorError interno del servidorUnknown ErrorError desconocidoUnexpected RedirectRedirección inesperadaConnectionInfo is undefined.ConnectionInfo no está definido.ConnectionInfo.options is undefined.ConnectionInfo.options no está definido.Some missing properties in connectionInfo.options: {0}Faltan algunas propiedades en connectionInfo.options: {0}View Known IssuesVer problemas conocidos{0} component exited unexpectedly. Please restart Azure Data Studio.El componente {0} se cerró de forma inesperada. Reinicie Azure Data Studio.This sample code loads the file into a data frame and shows the first 10 results.Este código de ejemplo carga el archivo en un marco de datos y muestra los primeros 10 resultados.An error occurred converting the SQL document to a Notebook. Error : {0}Error al convertir el documento de SQL a Notebook; {0}.An error occurred converting the Notebook document to SQL. Error : {0}Error al convertir el documento de Notebook a SQL; {0}.NotebooksNotebooksOnly .ipynb Notebooks are supportedSolo se admiten los Notebooks de tipo .ipynbCould not find the controller endpoint for this instanceNo se encuentra el punto de conexión del controlador para esta instancia.Applying permission changes recursively under '{0}'Aplicando cambios de permisos de forma recursiva en "{0}"Permission changes applied successfully.Los cambios de permisos se aplicaron correctamente.Applying permission changes to '{0}'.Aplicando cambios de permisos a "{0}".Error applying permission changes: {0}Error al aplicar los cambios de permisos: {0}YesSíNoNoSelect other SQL ServerSeleccionar otro servidor SQL ServerPlease select SQL Server with Big Data Cluster.Seleccione SQL Server con un clúster de macrodatos.No SQL Server is selected.No hay ningún servidor SQL Server seleccionado.The selected server does not belong to a SQL Server Big Data ClusterEl servidor seleccionado no pertenece a un clúster de macrodatos de SQL ServerError Get File Path: {0}Error al obtener la ruta de acceso del archivo: {0}Parameters for SparkJobSubmissionDialog is illegalLos parámetros de SparkJobSubmissionDialog no son válidosNew JobNuevo trabajoCancelCancelarSubmitEnviar{0} Spark Job Submission:Envío de trabajo de Spark {0}:.......................... Submit Spark Job Start .................................................... Inicio del envío del trabajo de Spark ..........................Parameters for SparkJobSubmissionModel is illegalLos parámetros de SparkJobSubmissionModel no son válidossubmissionArgs is invalid. El elemento submissionArgs no es válido. livyBatchId is invalid. El elemento livyBatchId no es válido. Get Application Id time out. {0}[Log] {1}Obtener tiempo de espera del identificador de aplicación. {0}[Registro] {1}Property localFilePath or hdfsFolderPath is not specified. No se especifica la propiedad localFilePath o hdfsFolderPath. Property Path is not specified. No se especifica la ruta de acceso de la propiedad. GENERALGENERALEnter a name ...Escriba un nombre...Job NameNombre del trabajoSpark ClusterClúster de SparkPath to a .jar or .py fileRuta de acceso a un archivo .jar o .pyThe selected local file will be uploaded to HDFS: {0}El archivo local seleccionado se cargará en HDFS: {0}JAR/py FileArchivo JAR/pyMain ClassClase principalArgumentsArgumentosCommand line arguments used in your main class, multiple arguments should be split by space.Argumentos de línea de comandos utilizados en la clase principal, varios argumentos deben dividirse con un espacio.Property Job Name is not specified.No se especifica el nombre del trabajo de propiedad.Property JAR/py File is not specified.No se especifica el archivo JAR/py de la propiedad.Property Main Class is not specified.No se especifica la clase principal de la propiedad.{0} does not exist in Cluster or exception thrown. {0} no existe en el clúster o en la excepción iniciada. The specified HDFS file does not exist. El archivo HDFS especificado no existe. SelectSeleccionarError in locating the file due to Error: {0}Error al ubicar el archivo debido a un error: {0}ADVANCEDOPCIONES AVANZADASReference JarsArchivos JAR de referenciaJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)Archivos JAR que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo JAR debe ser una ruta de acceso de HDFS. Varias rutas deben dividirse por punto y coma (;)Reference py FilesArchivos py de referenciaPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Archivos py que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo debe ser una ruta de acceso de HDFS. Varias rutas deben separarse por punto y coma (;)Reference FilesArchivos de referenciaFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Archivos que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo debe ser una ruta de acceso HDFS. Varias rutas deben separarse por punto y coma (;)Driver MemoryMemoria de controladorAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Cantidad de memoria que se asignará al controlador. Especifique unidades como parte del valor, por ejemplo, 512 M o 2 G.Driver CoresNúcleos del controladorAmount of CPU cores to allocate to the driver.Cantidad de núcleos de CPU que se asignarán al controlador.Executor MemoryMemoria del ejecutorAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Cantidad de memoria que se asignará al ejecutor. Especifique unidades como parte del valor, por ejemplo, 512 M o 2 G.Executor CoresNúcleos del ejecutorAmount of CPU cores to allocate to the executor.Cantidad de núcleos de CPU que se asignarán al ejecutor.Executor CountRecuento de ejecutoresNumber of instances of the executor to run.Número de instancias del ejecutor para ejecutar.Queue NameNombre de la colaName of the Spark queue to execute the session in.Nombre de la cola de Spark en la que se va a ejecutar la sesión.Configuration ValuesValores de configuraciónList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Lista de pares nombre-valor que contienen valores de configuración de Spark, codificados como diccionario JSON. Ejemplo: "{'nombre':'valor', 'nombre2':'valor2'}".Please provide the username to connect to HDFS:Proporcione el nombre de usuario para conectarse a HDFS:Please provide the password to connect to HDFS:Proporcione la contraseña para conectarse a HDFS:Session for node {0} does not existLa sesión para el nodo {0} no existeError notifying of node change: {0}Error al notificar el cambio de nodo: {0}HDFSHDFSRootRaízError: {0}Error: {0}Cannot delete a connection. Only subfolders and files can be deleted.No se puede eliminar una conexión. Solo se pueden eliminar subcarpetas y archivos.Stream operation canceled by the userOperación de transmisión cancelada por el usuarioMetrics DashboardPanel de métricasLog Search DashboardPanel de búsqueda de registrosSpark Jobs Management and Monitoring DashboardPanel de supervisión y administración de trabajos de SparkSpark Diagnostics and Monitoring DashboardPanel de diagnóstico y supervisión de SparkCopyCopiarApplication ProxyProxy de aplicaciónCluster Management ServiceServicio de administración de clústeresGateway to access HDFS files, SparkPuerta de enlace para acceder a archivos HDFS, SparkManagement ProxyProxy de administraciónManagement ProxyProxy de administraciónSQL Server Master Instance Front-EndFront-end de instancia maestra de SQL ServerMetrics DashboardPanel de métricasLog Search DashboardPanel de búsqueda de registrosSpark Diagnostics and Monitoring DashboardPanel de diagnóstico y supervisión de SparkSpark Jobs Management and Monitoring DashboardPanel de supervisión y administración de trabajos de SparkHDFS File System ProxyProxy de sistema de archivos HDFSProxy for running Spark statements, jobs, applicationsProxy para ejecutar instrucciones, trabajos, aplicaciones de Spark{0} Started{0} iniciadoStarting {0}Iniciando {0}Failed to start {0}No se ha podido iniciar {0}Installing {0} to {1}Instalando {0} en {1}Installing {0}Instalando {0}Installed {0}{0} instaladoDownloading {0}Descargando {0}({0} KB)({0} KB)Downloading {0}Descargando {0}Done installing {0}Instalación terminada {0}Extracted {0} ({1}/{2})Elementos extraídos: {0} ({1} de {2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio debe ponerse en contacto con Azure Key Vault para acceder a la clave maestra de una columna para Always Encrypted, pero no hay ninguna cuenta de Azure vinculada disponible. Agregue una cuenta de Azure vinculada y vuelva a intentar realizar la consulta.Please select a linked Azure account:Seleccione una cuenta de Azure vinculada:Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio debe ponerse en contacto con Azure Key Vault para acceder a la clave maestra de una columna para Always Encrypted, pero no se ha seleccionado ninguna cuenta de Azure vinculada. Vuelva a intentar realizar la consulta y, cuando se le solicite, seleccione una cuenta de Azure vinculada.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.La cuenta de Azure configurada para {0} no tiene suficientes permisos para que Azure Key Vault tenga acceso a una clave maestra de columna para Always Encrypted.