Files
azuredatastudio/i18n/ads-language-pack-es/translations/extensions/mssql.i18n.json
Alex Ma f7b9ca775a Update for language packs, (#14912)
* update DE lang pack extension strings from previous refresh

* bump lang pack versions for DE

* update for spanish langpack

* update for french langpack

* update for italian pack

* update for japanese pack

* update for korean pack

* update for Brazilian Portuguese pack

* update for Russian pack

* Update for Simplified Chinese pack

* update for Traditional Chinese pack

* added updated language packs for german and spanish

* changed vscode version

* added french and italian packs

* changes made to main

* japanese language pack added

* added korean pack

* Added Portuguese pack

* added russian pack, also small change to pt pack

* simplified chinese pack

* added traditional chinese pack

* deleted old language packs

* restore sql.i18n.json files

* Main.i18n.json reverted

* Revert sql json files

* main.i18n.json file for German updated

* updates to language packs 1

* main json for italian updated.

* update to japanese main

* finished translations for vs and sql in main.

* added ADS exclusive extensions to package.json

* fixed markdown and seti translation ids

* German language pack fixed

* Removed make from ads-language-pack-de and fixed es language pack

* french language pack fixed

* fixed italian language pack and restored typescript-basics

* removed unnecessary readme strings and nsions.

* fixed japanese pack

* Korean language pack fixed

* Portuguese language pack fixed

* fixed russian language pack

* Simplified Chinese pack fixed

* traditional chinese fixed

* restored sqlservernotebook
2021-03-31 11:08:45 -07:00

342 lines
26 KiB
JSON

{
"": [
"--------------------------------------------------------------------------------------------",
"Copyright (c) Microsoft Corporation. All rights reserved.",
"Licensed under the Source EULA. See License.txt in the project root for license information.",
"--------------------------------------------------------------------------------------------",
"Do not edit this file. It is machine generated."
],
"version": "1.0.0",
"contents": {
"package": {
"json.schemas.desc": "Asociar esquemas a archivos JSON en el proyecto actual",
"json.schemas.url.desc": "Una dirección URL a un esquema o una ruta de acceso relativa a un esquema en el directorio actual",
"json.schemas.fileMatch.desc": "Una matriz de patrones de archivo con los cuales coincidir cuando los archivos JSON se resuelvan en esquemas.",
"json.schemas.fileMatch.item.desc": "Un patrón de archivo que puede contener \"*\" con el cual coincidir cuando los archivos JSON se resuelvan en esquemas.",
"json.schemas.schema.desc": "La definición de esquema de la dirección URL determinada. Solo se necesita proporcionar el esquema para evitar los accesos a la dirección URL del esquema.",
"json.format.enable.desc": "Habilitar/deshabilitar formateador JSON predeterminado (requiere reiniciar)",
"mssqlCluster.uploadFiles": "Cargar archivos",
"mssqlCluster.mkdir": "Nuevo directorio",
"mssqlCluster.deleteFiles": "Eliminar",
"mssqlCluster.previewFile": "Versión preliminar",
"mssqlCluster.saveFile": "Guardar",
"mssqlCluster.copyPath": "Copiar ruta de acceso",
"mssqlCluster.manageAccess": "Administrar el acceso",
"notebook.command.new": "Nuevo Notebook",
"notebook.command.open": "Abrir Notebook",
"tab.bigDataClusterDescription": "Tareas e información sobre el clúster de macrodatos de SQL Server",
"title.bigDataCluster": "Clúster de macrodatos de SQL Server",
"title.submitSparkJob": "Enviar trabajo de Spark",
"title.newSparkJob": "Nuevo trabajo de Spark",
"title.openSparkHistory": "Ver el historial de Spark",
"title.openYarnHistory": "Ver historial de Yarn",
"title.tasks": "Tareas",
"title.installPackages": "Instalar paquetes",
"title.configurePython": "Configurar Python para Notebooks",
"title.searchServers": "Buscar: Servidores",
"title.clearSearchServerResult": "Buscar: Borrar los resultados del servidor de búsqueda",
"title.endpoints": "Puntos de conexión de servicio",
"title.books": "Notebooks",
"title.showLogFile": "Mostrar archivo de registro",
"mssql.configuration.title": "Configuración de MSSQL",
"mssql.query.displayBitAsNumber": "¿Deben mostrarse las columnas BIT como números (1 o 0)? Si es false, las columnas BIT se mostrarán como \"true\" o \"false\".",
"mssql.format.alignColumnDefinitionsInColumns": "Indica si las definiciones de columna deben alinearse.",
"mssql.format.datatypeCasing": "Indica si los tipos de datos deben formatearse como MAYÚSCULAS, minúsculas o nada (sin formato).",
"mssql.format.keywordCasing": "Indica si las palabras clave deben formatearse como MAYÚSCULAS, minúsculas o nada (sin formato).",
"mssql.format.placeCommasBeforeNextStatement": "Indica si las comas deben colocarse al principio de cada instrucción de una lista por ejemplo, \", micolumna2\" en lugar de al final, por ejemplo, \"micolumna1,\".",
"mssql.format.placeSelectStatementReferencesOnNewLine": "¿Deben separarse en líneas distintas las referencias a objetos de las instrucciones select? Por ejemplo, en \"SELECT C1, C2 FROM T1\", C1 y C2 estarán en líneas separadas",
"mssql.logDebugInfo": "[Opcional] Registre la salida de depuración en a la consola (Ver -> Salida) y después seleccione el canal de salida apropiado del menú desplegable",
"mssql.tracingLevel": "[Opcional] El nivel de registro para servicios back-end. Azure Data Studio genera un nombre de archivo cada vez que se inicia y, si el archivo ya existe, las entradas de registros se anexan a ese archivo. Para la limpieza de archivos de registro antiguos, consulte la configuración de logRetentionMinutes y logFilesRemovalLimit. El valor predeterminado tracingLevel no registra mucho. El cambio de detalle podría dar lugar a amplios requisitos de registro y espacio en disco para los registros. Error incluye Crítico, Advertencia incluye Error, Información incluye Advertencia y Detallado incluye Información.",
"mssql.logRetentionMinutes": "Número de minutos para conservar los archivos de registro para los servicios back-end. El valor predeterminado es 1 semana.",
"mssql.logFilesRemovalLimit": "Número máximo de archivos antiguos para quitarse en el inicio que tienen expirado el valor mssql.logRetentionMinutes. Los archivos que no se limpien debido a esta limitación se limpiarán la próxima vez que se inicie Azure Data Studio.",
"ignorePlatformWarning": "[Opcional] No mostrar advertencias de plataformas no compatibles",
"onprem.databaseProperties.recoveryModel": "Modelo de recuperación",
"onprem.databaseProperties.lastBackupDate": "Última copia de seguridad de la base de datos",
"onprem.databaseProperties.lastLogBackupDate": "Última copia de seguridad de registros",
"onprem.databaseProperties.compatibilityLevel": "Nivel de compatibilidad",
"onprem.databaseProperties.owner": "Propietario",
"onprem.serverProperties.serverVersion": "Versión",
"onprem.serverProperties.serverEdition": "Edición",
"onprem.serverProperties.machineName": "Nombre del equipo",
"onprem.serverProperties.osVersion": "Versión del sistema operativo",
"cloud.databaseProperties.azureEdition": "Edición",
"cloud.databaseProperties.serviceLevelObjective": "Plan de tarifa",
"cloud.databaseProperties.compatibilityLevel": "Nivel de compatibilidad",
"cloud.databaseProperties.owner": "Propietario",
"cloud.serverProperties.serverVersion": "Versión",
"cloud.serverProperties.serverEdition": "Tipo",
"mssql.provider.displayName": "Microsoft SQL Server",
"mssql.connectionOptions.connectionName.displayName": "Nombre (opcional)",
"mssql.connectionOptions.connectionName.description": "Nombre personalizado de la conexión",
"mssql.connectionOptions.serverName.displayName": "Servidor",
"mssql.connectionOptions.serverName.description": "Nombre de la instancia de SQL Server",
"mssql.connectionOptions.databaseName.displayName": "Base de datos",
"mssql.connectionOptions.databaseName.description": "Nombre del catálogo o base de datos inicial del origen de datos",
"mssql.connectionOptions.authType.displayName": "Tipo de autenticación",
"mssql.connectionOptions.authType.description": "Especifica el método de autenticación con SQL Server",
"mssql.connectionOptions.authType.categoryValues.sqlLogin": "Inicio de sesión SQL",
"mssql.connectionOptions.authType.categoryValues.integrated": "Autenticación de Windows",
"mssql.connectionOptions.authType.categoryValues.azureMFA": "Azure Active Directory: universal con compatibilidad con MFA",
"mssql.connectionOptions.userName.displayName": "Nombre del usuario",
"mssql.connectionOptions.userName.description": "Indica el identificador de usuario que se va a usar al conectar con el origen de datos",
"mssql.connectionOptions.password.displayName": "Contraseña",
"mssql.connectionOptions.password.description": "Indica la contraseña que se utilizará al conectarse al origen de datos",
"mssql.connectionOptions.applicationIntent.displayName": "Intención de la aplicación",
"mssql.connectionOptions.applicationIntent.description": "Declara el tipo de carga de trabajo de la aplicación al conectarse a un servidor",
"mssql.connectionOptions.asynchronousProcessing.displayName": "Procesamiento asincrónico",
"mssql.connectionOptions.asynchronousProcessing.description": "Cuando es true, habilita el uso de la funcionalidad asincrónica en el proveedor de datos de .NET Framework",
"mssql.connectionOptions.connectTimeout.displayName": "Tiempo de espera de la conexión",
"mssql.connectionOptions.connectTimeout.description": "Intervalo de tiempo (en segundos) que se debe esperar a que se establezca la conexión con el servidor antes de dejar de intentarlo y generar un error",
"mssql.connectionOptions.currentLanguage.displayName": "Idioma actual",
"mssql.connectionOptions.currentLanguage.description": "El nombre del registro de idioma de SQL Server",
"mssql.connectionOptions.columnEncryptionSetting.displayName": "Cifrado de columnas",
"mssql.connectionOptions.columnEncryptionSetting.description": "Valor de cifrado de columnas predeterminado para todos los comandos de la conexión",
"mssql.connectionOptions.encrypt.displayName": "Cifrar",
"mssql.connectionOptions.encrypt.description": "Cuando el valor es true, SQL Server utiliza cifrado SSL para todos los datos enviados entre el cliente y el servidor, cuando el servidor tiene instalado un certificado",
"mssql.connectionOptions.persistSecurityInfo.displayName": "Información de seguridad persistente",
"mssql.connectionOptions.persistSecurityInfo.description": "Si el valor es false, no se devuelve información confidencial de seguridad, como la contraseña, como parte de la conexión",
"mssql.connectionOptions.trustServerCertificate.displayName": "Certificado de servidor de confianza",
"mssql.connectionOptions.trustServerCertificate.description": "Cuando es true (y encrypt=true), SQL Server usa el cifrado SSL para todos los datos enviados entre el cliente y el servidor sin validar el certificado del servidor",
"mssql.connectionOptions.attachedDBFileName.displayName": "Nombre del archivo de base de datos adjunto",
"mssql.connectionOptions.attachedDBFileName.description": "Nombre del archivo principal, incluido el nombre completo de ruta, de una base de datos que se puede adjuntar",
"mssql.connectionOptions.contextConnection.displayName": "Conexión contextual",
"mssql.connectionOptions.contextConnection.description": "Cuando es true, indica que la conexión debe ser desde el contexto de SQL Server. Disponible sólo cuando se ejecuta en el proceso de SQL Server",
"mssql.connectionOptions.port.displayName": "Puerto",
"mssql.connectionOptions.connectRetryCount.displayName": "Recuento de reintentos de conexión",
"mssql.connectionOptions.connectRetryCount.description": "Número de intentos para restaurar la conexión",
"mssql.connectionOptions.connectRetryInterval.displayName": "Intervalo de reintento de conexión",
"mssql.connectionOptions.connectRetryInterval.description": "Retraso entre intentos para restaurar la conexión",
"mssql.connectionOptions.applicationName.displayName": "Nombre de la aplicación",
"mssql.connectionOptions.applicationName.description": "El nombre de la aplicación",
"mssql.connectionOptions.workstationId.displayName": "Id. de estación de trabajo",
"mssql.connectionOptions.workstationId.description": "El nombre de la estación de trabajo que se conecta a SQL Server",
"mssql.connectionOptions.pooling.displayName": "Agrupación",
"mssql.connectionOptions.pooling.description": "Cuando el valor es true, el objeto de conexión se obtiene del grupo apropiado, o si es necesario, se crea y agrega al grupo apropiado",
"mssql.connectionOptions.maxPoolSize.displayName": "Tamaño máximo del grupo",
"mssql.connectionOptions.maxPoolSize.description": "El número máximo de conexiones permitidas en el grupo",
"mssql.connectionOptions.minPoolSize.displayName": "Tamaño mínimo del grupo",
"mssql.connectionOptions.minPoolSize.description": "El número mínimo de conexiones permitidas en el grupo",
"mssql.connectionOptions.loadBalanceTimeout.displayName": "Tiempo de espera del equilibrio de carga",
"mssql.connectionOptions.loadBalanceTimeout.description": "Periodo mínimo de tiempo (en segundos) que residirá esta conexión en el grupo antes de que se destruya",
"mssql.connectionOptions.replication.displayName": "Replicación",
"mssql.connectionOptions.replication.description": "Utilizado por SQL Server en replicación",
"mssql.connectionOptions.attachDbFilename.displayName": "Adjuntar nombre de archivo de base de datos",
"mssql.connectionOptions.failoverPartner.displayName": "Socio de conmutación por error",
"mssql.connectionOptions.failoverPartner.description": "El nombre o la dirección de red de la instancia de SQL Server que actúa como asociado para la conmutación por error",
"mssql.connectionOptions.multiSubnetFailover.displayName": "Conmutación por error de varias subredes",
"mssql.connectionOptions.multipleActiveResultSets.displayName": "Conjuntos de resultados activos múltiples (MARS)",
"mssql.connectionOptions.multipleActiveResultSets.description": "Cuando el valor es true, se pueden devolver varios conjuntos de resultados y leerlos desde una conexión.",
"mssql.connectionOptions.packetSize.displayName": "Tamaño del paquete",
"mssql.connectionOptions.packetSize.description": "Tamaño en bytes de los paquetes de red utilizados para comunicarse con una instancia de SQL Server",
"mssql.connectionOptions.typeSystemVersion.displayName": "Versión de sistema de tipo",
"mssql.connectionOptions.typeSystemVersion.description": "Indica qué sistema de tipo de servidor expondrá el proveedor a través de DataReader"
},
"dist/localizedConstants": {
"msgMissingNodeContext": "Se ha llamado al comando de nodo sin pasar ningún nodo",
"mssql.manageAccessTitle": "Administrar el acceso",
"mssql.locationTitle": "Ubicación: ",
"mssql.permissionsTitle": "Permisos",
"mssql.ownerPostfix": " - Propietario",
"mssql.owningGroupPostfix": " - Grupo propietario",
"mssql.everyone": "Todos los demás",
"mssql.userLabel": "Usuario",
"mssql.groupLabel": "Agrupar",
"mssql.accessHeader": "Acceso",
"mssql.defaultHeader": "Predeterminado",
"mssql.delete": "Eliminar",
"mssql.stickyHeader": "Temporal",
"mssql.inheritDefaultsLabel": "Heredar valores predeterminados",
"mssql.readHeader": "Leer",
"mssql.writeHeader": "Escribir",
"mssql.executeHeader": "Ejecutar",
"mssql.addUserOrGroup": "Agregar usuario o grupo",
"mssql.enterNamePlaceholder": "Escriba el nombre",
"mssql.addLabel": "Agregar",
"mssql.namedUsersAndGroups": "Usuarios y grupos designados",
"mssql.apply": "Aplicar",
"mssql.applyRecursively": "Aplicar recursivamente",
"mssql.errorApplyingAclChanges": "Error inesperado al aplicar los cambios: {0}",
"sparkJobSubmission_LocalFileDestinationHint": "El archivo local se cargará en HDFS. ",
"sparkJobSubmission_SubmissionEndMessage": ".......................... Final del envío del trabajo de Spark ............................",
"sparkJobSubmission_PrepareUploadingFile": "Carga de archivo desde {0} local a la carpeta HDFS: {1}",
"sparkJobSubmission_UploadingFileSucceeded": "La carga del archivo al clúster se completó correctamente",
"sparkJobSubmission_UploadingFileFailed": "Error al cargar el archivo en el clúster. {0}",
"sparkJobSubmission_PrepareSubmitJob": "Enviando trabajo \"{0}\"... ",
"sparkJobSubmission_SubmitJobFinished": "Se ha enviado el trabajo de Spark.",
"sparkJobSubmission_SubmitJobFailed": "Error en el envío del trabajo de Spark. {0} ",
"sparkJobSubmission_YarnUIMessage": "Url de YarnUI: {0} ",
"sparkJobSubmission_SparkHistoryLinkMessage": "Url del historial de Spark: {0} ",
"sparkJobSubmission_GetApplicationIdFailed": "Error al obtener el identificador de aplicación. {0}",
"sparkJobSubmission_LocalFileNotExisted": "No existe el archivo local {0}. ",
"sparkJobSubmission_NoSqlBigDataClusterFound": "No se ha encontrado ningún clúster de macrodatos de SQL Server."
},
"dist/objectExplorerNodeProvider/fileSources": {
"maxSizeNotice": "AVISO: Este archivo se ha truncado en {0} para la vista previa. ",
"maxSizeReached": "El archivo se ha truncado en {0} para la vista previa."
},
"dist/objectExplorerNodeProvider/command": {
"progress": "$(sync~spin) {0}...",
"cancelTooltip": "Cancelar",
"cancel": "¿Cancelar operación?",
"mssql.searchServers": "Buscar nombres de servidor"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionService": {
"sparkJobSubmission_LivyNoBatchIdReturned": "No se devuelve ningún identificador de lote de trabajo de Spark de la respuesta. {0}[Error] {1}",
"sparkJobSubmission_LivyNoLogReturned": "No se devuelve ningún registro dentro de la respuesta.{0}[Error] {1}"
},
"dist/objectExplorerNodeProvider/hdfsCommands": {
"allFiles": "Todos los archivos",
"lblUploadFiles": "Cargar",
"uploading": "Cargando archivos en HDFS",
"uploadCanceled": "Se canceló la operación de carga",
"uploadError": "Error al cargar los archivos: {0}",
"makingDir": "Creando directorio",
"mkdirCanceled": "La operación se canceló",
"mkDirError": "Error al crear el directorio: {0}",
"enterDirName": "Introduzca el nombre del directorio",
"deleteError": "Error en la eliminación de archivos: {0}",
"msgDeleteFolder": "¿Seguro que desea eliminar esta carpeta y su contenido?",
"msgDeleteFile": "¿Seguro que desea eliminar este archivo?",
"saving": "Guardando archivos HDFS",
"saveCanceled": "Se canceló la operación de guardar",
"saveError": "Error al guardar el archivo: {0}",
"previewing": "Generación de vista previa",
"previewError": "Error en la previsualización del archivo: {0}",
"copyPathError": "Error en la copia de la ruta de acceso: {0}",
"manageAccessError": "Error inesperado al abrir el cuadro de diálogo Administrar acceso: {0}"
},
"dist/hdfs/webhdfs": {
"webhdfs.invalidDataStructure": "Estructura de datos no válida",
"webhdfs.missingProperties": "No se ha podido crear el cliente de WebHDFS debido a que faltan opciones: ${0}",
"webhdfs.undefinedArgument": "\"${0}\" no se ha definido.",
"webhdfs.httpError400": "Solicitud incorrecta",
"webhdfs.httpError401": "No autorizado",
"webhdfs.httpError403": "Prohibido",
"webhdfs.httpError404": "No encontrado",
"webhdfs.httpError500": "Error interno del servidor",
"webhdfs.unknownError": "Error desconocido",
"webhdfs.unexpectedRedirect": "Redirección inesperada"
},
"dist/objectExplorerNodeProvider/connection": {
"connectionInfoUndefined": "ConnectionInfo no está definido.",
"connectionInfoOptionsUndefined": "ConnectionInfo.options no está definido.",
"connectionInfoOptionsMissingProperties": "Faltan algunas propiedades en connectionInfo.options: {0}"
},
"dist/telemetry": {
"viewKnownIssuesText": "Ver problemas conocidos",
"serviceCrashMessage": "El componente {0} se cerró de forma inesperada. Reinicie Azure Data Studio."
},
"dist/main": {
"msgSampleCodeDataFrame": "Este código de ejemplo carga el archivo en un marco de datos y muestra los primeros 10 resultados.",
"notebookFileType": "Notebooks",
"unsupportedFileType": "Solo se admiten los Notebooks de tipo .ipynb",
"fileNotFound": "No se puede encontrar el archivo especificado"
},
"dist/hdfs/hdfsModel": {
"mssql.recursivePermissionOpStarted": "Aplicando cambios de permisos de forma recursiva en \"{0}\"",
"mssql.recursivePermissionOpSucceeded": "Los cambios de permisos se aplicaron correctamente.",
"mssql.recursivePermissionOpProgress": "Aplicando cambios de permisos a \"{0}\".",
"mssql.recursivePermissionOpError": "Error al aplicar los cambios de permisos: {0}"
},
"dist/prompts/confirm": {
"msgYes": "Sí",
"msgNo": "No"
},
"dist/sparkFeature/dialog/dialogCommands": {
"selectOtherServer": "Seleccionar otro servidor SQL Server",
"sparkJobSubmission_PleaseSelectSqlWithCluster": "Seleccione SQL Server con un clúster de macrodatos.",
"sparkJobSubmission_NoSqlSelected": "No hay ningún servidor SQL Server seleccionado.",
"errorNotSqlBigDataCluster": "El servidor seleccionado no pertenece a un clúster de macrodatos de SQL Server",
"sparkJobSubmission_GetFilePathFromSelectedNodeFailed": "Error al obtener la ruta de acceso del archivo: {0}"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionDialog": {
"sparkJobSubmission_SparkJobSubmissionDialogInitializeError": "Los parámetros de SparkJobSubmissionDialog no son válidos",
"sparkJobSubmission_DialogTitleNewJob": "Nuevo trabajo",
"sparkJobSubmission_DialogCancelButton": "Cancelar",
"sparkJobSubmission_DialogSubmitButton": "Enviar",
"sparkJobSubmission_SubmitSparkJob": "Envío de trabajo de Spark {0}:",
"sparkJobSubmission_SubmissionStartMessage": ".......................... Inicio del envío del trabajo de Spark .........................."
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkJobSubmissionModel": {
"sparkJobSubmission_SparkJobSubmissionModelInitializeError": "Los parámetros de SparkJobSubmissionModel no son válidos",
"sparkJobSubmission_submissionArgsIsInvalid": "submissionArgs no es válido. ",
"sparkJobSubmission_LivyBatchIdIsInvalid": "livyBatchId no es válido. ",
"sparkJobSubmission_GetApplicationIdTimeOut": "Obtener tiempo de espera del identificador de aplicación. {0}[Registro] {1}",
"sparkJobSubmission_localFileOrFolderNotSpecified.": "No se especifica la propiedad localFilePath o hdfsFolderPath. ",
"sparkJobSubmission_PathNotSpecified.": "No se especifica la ruta de acceso de la propiedad. "
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkConfigurationTab": {
"sparkJobSubmission_GeneralTabName": "GENERAL",
"sparkJobSubmission_JobNamePlaceHolder": "Introduzca un nombre...",
"sparkJobSubmission_JobName": "Nombre de tarea",
"sparkJobSubmission_SparkCluster": "Clúster de Spark",
"sparkJobSubmission_FilePathPlaceHolder": "Ruta de acceso a un archivo .jar o .py",
"sparkJobSubmission_LocalFileDestinationHintWithPath": "El archivo local seleccionado se cargará en HDFS: {0}",
"sparkJobSubmission_MainFilePath": "Archivo JAR/py",
"sparkJobSubmission_MainClass": "Clase principal",
"sparkJobSubmission_Arguments": "Argumentos",
"sparkJobSubmission_ArgumentsTooltip": "Argumentos de línea de comandos utilizados en la clase principal, varios argumentos deben dividirse con un espacio.",
"sparkJobSubmission_NotSpecifyJobName": "No se especifica el nombre del trabajo de propiedad.",
"sparkJobSubmission_NotSpecifyJARPYPath": "No se especifica el archivo JAR/py de la propiedad.",
"sparkJobSubmission_NotSpecifyMainClass": "No se especifica la clase principal de la propiedad.",
"sparkJobSubmission_HDFSFileNotExistedWithPath": "{0} no existe en el clúster o en la excepción iniciada. ",
"sparkJobSubmission_HDFSFileNotExisted": "El archivo HDFS especificado no existe. ",
"sparkSelectLocalFile": "Seleccionar",
"sparkJobSubmission_SelectFileError": "Error al ubicar el archivo debido a un error: {0}"
},
"dist/sparkFeature/dialog/sparkJobSubmission/sparkAdvancedTab": {
"sparkJobSubmission_AdvancedTabName": "OPCIONES AVANZADAS",
"sparkJobSubmission_ReferenceJarList": "Archivos JAR de referencia",
"sparkJobSubmission_ReferenceJarListToolTip": "Archivos JAR que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo JAR debe ser una ruta de acceso de HDFS. Varias rutas deben dividirse por punto y coma (;)",
"sparkJobSubmission_ReferencePyList": "Archivos py de referencia",
"sparkJobSubmission_ReferencePyListTooltip": "Archivos py que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo debe ser una ruta de acceso de HDFS. Varias rutas deben separarse por punto y coma (;)",
"sparkJobSubmission_ReferenceFilesList": "Archivos de referencia",
"sparkJobSubmission_ReferenceFilesListTooltip": "Archivos que se colocarán en el directorio de trabajo del ejecutor. La ruta de acceso del archivo debe ser una ruta de acceso HDFS. Varias rutas deben separarse por punto y coma (;)"
},
"dist/objectExplorerNodeProvider/objectExplorerNodeProvider": {
"prmptPwd": "Proporcione la contraseña para conectarse a HDFS:",
"sessionNotFound": "La sesión para el nodo {0} no existe",
"notifyError": "Error al notificar el cambio de nodo: {0}",
"hdfsFolder": "HDFS",
"rootLabel": "Raíz"
},
"dist/objectExplorerNodeProvider/hdfsProvider": {
"errorExpanding": "Error: {0}",
"errDeleteConnectionNode": "No se puede eliminar una conexión. Solo se pueden eliminar subcarpetas y archivos."
},
"dist/objectExplorerNodeProvider/cancelableStream": {
"streamCanceled": "Operación de transmisión cancelada por el usuario"
},
"dist/dashboard/serviceEndpoints": {
"grafana": "Panel de métricas",
"kibana": "Panel de búsqueda de registros",
"sparkHistory": "Panel de supervisión y administración de trabajos de Spark",
"yarnHistory": "Panel de diagnóstico y supervisión de Spark",
"copyText": "Copiar",
"endpoint.appproxy": "Proxy de aplicación",
"endpoint.controller": "Servicio de administración de clústeres",
"endpoint.gateway": "Puerta de enlace para acceder a archivos HDFS, Spark",
"endpoint.managementproxy": "Proxy de administración",
"endpoint.mgmtproxy": "Proxy de administración",
"endpoint.sqlServerEndpoint": "Front-end de instancia maestra de SQL Server",
"endpoint.grafana": "Panel de métricas",
"endpoint.kibana": "Panel de búsqueda de registros",
"endpoint.yarnHistory": "Panel de diagnóstico y supervisión de Spark",
"endpoint.sparkHistory": "Panel de supervisión y administración de trabajos de Spark",
"endpoint.webhdfs": "Proxy de sistema de archivos HDFS",
"endpoint.livy": "Proxy para ejecutar instrucciones, trabajos, aplicaciones de Spark"
},
"dist/sqlToolsServer": {
"serviceStartedStatusMsg": "{0} iniciado",
"startingServiceStatusMsg": "Iniciando {0}",
"failedToStartServiceErrorMsg": "No se ha podido iniciar {0}",
"installingServiceChannelMsg": "Instalando {0} en {1}",
"installingServiceStatusMsg": "Instalando {0}",
"installedServiceChannelMsg": "{0} instalado",
"downloadingServiceChannelMsg": "Descargando {0}",
"downloadingServiceSizeChannelMsg": "({0} KB)",
"downloadingServiceStatusMsg": "Descargando {0}",
"downloadServiceDoneChannelMsg": "Instalación terminada {0}"
}
}
}