Associate schemas to JSON files in the current projectСвязь схем с JSON-файлами в текущем проектеA URL to a schema or a relative path to a schema in the current directoryURL-адрес схемы или относительный путь к ней в текущем каталогеAn array of file patterns to match against when resolving JSON files to schemas.Массив шаблонов файлов, с которым выполняется сравнение, при разрешении JSON-файлов в схемах.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Шаблон файла, который может содержать "*" и с которым выполняется сравнение, при разрешении JSON-файлов в схемах.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Определение схемы для указанного URL-адреса. Схему необходимо указать только для того, чтобы не обращаться по URL-адресу схемы.Enable/disable default JSON formatter (requires restart)Включение или отключение модуля форматирования JSON по умолчанию (требуется перезагрузка)Upload filesОтправить файлыNew directoryСоздать каталогDeleteУдалитьPreviewПредварительная версияSaveСохранитьCopy PathСкопировать путьManage AccessУправление доступомNew NotebookСоздать записную книжкуOpen NotebookОткрыть записную книжкуTasks and information about your SQL Server Big Data ClusterЗадачи и сведения о вашем кластере больших данных SQL ServerSQL Server Big Data ClusterКластер больших данных SQL ServerSubmit Spark JobОтправить задание SparkNew Spark JobСоздать задание SparkView Spark HistoryПросмотреть журнал SparkView Yarn HistoryПросмотреть журнал YARNTasksЗадачиInstall PackagesУстановка пакетовConfigure Python for NotebooksНастройка Python для Записных книжекCluster
DashboardПанель мониторинга
кластераSearch: ServersПоиск: серверыSearch: Clear Search Server ResultsПоиск: очистить результаты поиска сервераService EndpointsКонечные точки службыNotebooksЗаписные книжкиShow Log FileПоказать файл журналаDisabledОтключеноEnabledВключеноExport Notebook as SQLЭкспорт записной книжки в виде SQLExport SQL as NotebookЭкспорт SQL в виде записной книжкиMSSQL configurationКонфигурация MSSQLShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Нужно ли отображать столбцы BIT как числа (1 или 0)? Если задано значение FALSE, столбцы BIT будут отображаться как "TRUE" или "FALSE"Number of XML characters to store after running a queryЧисло XML-символов для хранения после выполнения запросаShould column definitions be aligned?Должны ли определения столбцов быть выровнены?Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)Следует ли форматировать типы данных в верхнем регистре, нижнем регистре или оставить без форматирования ("нет")Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Следует ли форматировать ключевые слова в верхнем регистре, нижнем регистре или оставить без форматирования ("нет")should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Следует ли ставить запятые в начале каждой инструкции в списке, например ", mycolumn2", а не в конце, например "mycolumn1,"Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesНужно ли разделять на отдельные строки ссылки на объекты в выбранных инструкциях? Например, для "SELECT C1, C2 FROM T1" как C1, так и C2 будут находиться на отдельных строках[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Необязательно] Выведите выходные данные отладки в консоль (Вид -> Вывод), а затем выберите подходящий выходной канал в раскрывающемся списке[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Необязательно] Уровень ведения журнала для серверных служб. Azure Data Studio создает имя файла при каждом запуске, а если такой файл уже существует, записи журналов добавляются в него. Для очистки старых файлов журналов см. описание параметров logRetentionMinutes и logFilesRemovalLimit. Параметр tracingLevel по умолчанию регистрирует не слишком многое. Изменение детализации может привести к тому, что журналы будут занимать слишком много места. Ошибка включает критический уровень, предупреждение включает ошибку, информационный уровень включает предупреждение, а подробный уровень включает информационный уровень.Number of minutes to retain log files for backend services. Default is 1 week.Срок хранения файлов журналов (в минутах) для серверных служб. По умолчанию задана 1 неделя.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Максимальное число старых файлов, удаляемых при запуске, с истекшим сроком mssql.logRetentionMinutes. Файлы, которые не были очищены из-за этого ограничения, очищаются при следующем запуске Azure Data Studio.Should IntelliSense be enabledДолжен ли быть включен IntelliSenseShould IntelliSense error checking be enabledДолжна ли быть включена проверка ошибок IntelliSenseShould IntelliSense suggestions be enabledДолжны ли быть включены подсказки IntelliSenseShould IntelliSense quick info be enabledДолжны ли быть включены краткие сведения IntelliSenseShould IntelliSense suggestions be lowercaseСледует ли подсказкам IntelliSense использовать строчные буквыMaximum number of rows to return before the server stops processing your query.Максимальное число строк, которые будут возвращены перед тем, как сервер перестанет обрабатывать ваш запрос.Maximum size of text and ntext data returned from a SELECT statementМаксимальный размер текста и данных ntext, возвращаемых инструкцией SELECTAn execution time-out of 0 indicates an unlimited wait (no time-out)Время ожидания выполнения, равное 0, указывает на неограниченное время ожиданияEnable SET NOCOUNT optionУстановить параметр SET NOCOUNTEnable SET NOEXEC optionУстановить параметр SET NOEXECEnable SET PARSEONLY optionУстановить параметр SET PARSEONLYEnable SET ARITHABORT optionУстановить параметр SET ARITHABORTEnable SET STATISTICS TIME optionУстановить параметр SET STATISTICS TIMEEnable SET STATISTICS IO optionУстановить параметр SET STATISTICS IOEnable SET XACT_ABORT ON optionУстановить параметр SET XACT_ABORT ONEnable SET TRANSACTION ISOLATION LEVEL optionУстановить параметр SET TRANSACTION ISOLATION LEVELEnable SET DEADLOCK_PRIORITY optionУстановить параметр SET DEADLOCK_PRIORITYEnable SET LOCK TIMEOUT option (in milliseconds)Установить параметр SET LOCK TIMEOUT (в миллисекундах)Enable SET QUERY_GOVERNOR_COST_LIMITУстановить параметр SET QUERY_GOVERNOR_COST_LIMITEnable SET ANSI_DEFAULTSУстановить параметр SET ANSI_DEFAULTSEnable SET QUOTED_IDENTIFIERУстановить параметр SET QUOTED_IDENTIFIEREnable SET ANSI_NULL_DFLT_ONУстановить параметр SET ANSI_NULL_DFLT_ONEnable SET IMPLICIT_TRANSACTIONSУстановить параметр SET IMPLICIT_TRANSACTIONSEnable SET CURSOR_CLOSE_ON_COMMITУстановить параметр SET CURSOR_CLOSE_ON_COMMITEnable SET ANSI_PADDINGУстановить параметр SET ANSI_PADDINGEnable SET ANSI_WARNINGSУстановить параметр SET ANSI_WARNINGSEnable SET ANSI_NULLSУстановить параметр SET ANSI_NULLSEnable Parameterization for Always EncryptedВключить параметризацию для Always Encrypted[Optional] Do not show unsupported platform warnings[Необязательно] Не показывать предупреждения для неподдерживаемых платформRecovery ModelМодель восстановленияLast Database BackupПоследнее резервное копирование базы данныхLast Log BackupПоследняя резервная копия журналаCompatibility LevelУровень совместимостиOwnerВладелецVersionВерсияEditionВыпускComputer NameИмя компьютераOS VersionВерсия ОСEditionВыпускPricing TierЦеновая категорияCompatibility LevelУровень совместимостиOwnerВладелецVersionВерсияTypeТипMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Имя (необязательно)Custom name of the connectionНастраиваемое имя подключенияServerСерверName of the SQL Server instanceИмя экземпляра SQL ServerDatabaseБаза данныхThe name of the initial catalog or database int the data sourceИмя исходного каталога или базы данных в источнике данныхAuthentication typeТип проверки подлинностиSpecifies the method of authenticating with SQL ServerУказывает способ проверки подлинности в SQL ServerSQL LoginИмя входе SQLWindows AuthenticationПроверка подлинности Windows.Azure Active Directory - Universal with MFA supportAzure Active Directory — универсальный с поддержкой MFAUser nameИмя пользователяIndicates the user ID to be used when connecting to the data sourceУказывает идентификатор пользователя, который необходимо использовать для подключения к источнику данныхPasswordПарольIndicates the password to be used when connecting to the data sourceУказывает пароль, который необходимо использовать для подключения к источнику данныхApplication intentНамерение приложенияDeclares the application workload type when connecting to a serverОбъявляет тип рабочей нагрузки приложения при подключении к серверуAsynchronous processingАсинхронная обработкаWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderКогда задано значение TRUE, разрешено использовать асинхронные функции в поставщике данных .NET FrameworkConnect timeoutИстекло время ожидания подключенияThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorДлительность (в секундах) ожидания при подключении к серверу, после чего попытка прекращается и выводится ошибкаCurrent languageТекущий языкThe SQL Server language record nameИмя записи языка SQL ServerAlways EncryptedAlways EncryptedEnables or disables Always Encrypted for the connectionВключает или отключает Always Encrypted для подключенияAttestation ProtocolПротокол аттестацииSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesЗадает протокол для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавамиAzure AttestationАттестация AzureHost Guardian ServiceСлужба защиты узлаEnclave Attestation URLURL-адрес аттестации анклаваSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesЗадает конечную точку для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавамиEncryptШифроватьWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedКогда задано значение TRUE, SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером, если на сервере установлен сертификатPersist security infoСохранение сведений о безопасностиWhen false, security-sensitive information, such as the password, is not returned as part of the connectionЕсли задано значение FALSE, то секретные данные (например, пароль) не возвращаются в составе подключенияTrust server certificateДоверять сертификату сервераWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateКогда задано значение TRUE (и encrypt=true), SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером без проверки сертификата сервераAttached DB file nameИмя вложенного файла базы данныхThe name of the primary file, including the full path name, of an attachable databaseИмя первичного файла прикрепляемой базы данных, включая полный путьContext connectionКонтекстное подключениеWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processЕсли задано значение TRUE, указывает, что подключение должно быть произведено в контексте SQL Server. Доступно только при выполнении в процессе SQL Server.PortПортConnect retry countСчетчик повторных попыток для подключенияNumber of attempts to restore connectionЧисло попыток восстановления подключенияConnect retry intervalИнтервал повторных попыток подключенияDelay between attempts to restore connectionЗадержка между попытками восстановления подключенияApplication nameИмя приложенияThe name of the applicationИмя приложенияWorkstation IdИдентификатор рабочей станцииThe name of the workstation connecting to SQL ServerИмя рабочей станции, подключающейся к SQL ServerPoolingОбъединение в пулWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolЕсли задано значение TRUE, объект соединения извлекается из соответствующего пула или при необходимости создается и добавляется в соответствующий пулMax pool sizeМаксимальный размер пулаThe maximum number of connections allowed in the poolМаксимально допустимое число подключений в пулеMin pool sizeМинимальный размер пулаThe minimum number of connections allowed in the poolМинимально допустимое число подключений в пулеLoad balance timeoutИстекло время ожидания при балансировке нагрузкиThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedМинимальное время (в секундах), которое это подключение будет оставаться в пуле до уничтоженияReplicationРепликацияUsed by SQL Server in ReplicationИспользуется SQL Server при репликацииAttach DB filenameИмя вложенного файла базы данныхFailover partnerПартнер по обеспечению отработки отказаThe name or network address of the instance of SQL Server that acts as a failover partnerИмя или сетевой адрес экземпляра SQL Server, выступающего в роли партнера по обеспечению отработки отказаMulti subnet failoverОтработка отказа в нескольких подсетяхMultiple active result setsМножественные активные результирующие наборыWhen true, multiple result sets can be returned and read from one connectionЕсли задано значение TRUE, из одного подключения может быть возвращено и считано несколько результирующих наборовPacket sizeРазмер пакетаSize in bytes of the network packets used to communicate with an instance of SQL ServerРазмер (в байтах) сетевых пакетов, которые используются для взаимодействия с экземпляром SQL ServerType system versionВерсия системы типовIndicates which server type system the provider will expose through the DataReaderУказывает серверную систему, доступ к которой поставщик будет предоставлять через DataReaderNameИмяStatusСостояниеSize (MB)Размер (МБ)Last backupПоследняя архивацияNameИмяNode Command called without any node passedКоманда Node вызвана без передачи какого-либо узлаManage AccessУправление доступомLocation : Расположение: PermissionsРазрешения - Owner — ВладелецOwnerВладелецGroupГруппа - Owning Group — Группа-владелецEveryone elseВсе остальныеUserПользовательGroupГруппаAccessДоступDefaultПо умолчаниюDeleteУдалитьSticky BitБит закрепленияInherit DefaultsУнаследовать значения по умолчаниюReadЧтениеWriteЗаписьExecuteВыполнениеAdd User or GroupДобавление пользователя или группыEnter nameВведите имяAddДобавитьNamed Users and GroupsИменованные пользователи и группыDefault User and GroupsПользователь и группы по умолчаниюUser or Group IconЗначок пользователя или группыApplyПрименитьApply RecursivelyПрименить рекурсивноUnexpected error occurred while applying changes : {0}Непредвиденная ошибка при применении изменений: {0}Local file will be uploaded to HDFS. Локальный файл будет отправлен в HDFS........................... Submit Spark Job End ...................................................... Конец отправки задания Spark ............................Uploading file from local {0} to HDFS folder: {1}Отправка файла из локального {0} в папку HDFS: {1}Upload file to cluster Succeeded!Отправка файла в кластер успешно завершена.Upload file to cluster Failed. {0}Отправка файла в кластер завершилась сбоем. {0}Submitting job {0} ... Отправка задания {0}... The Spark Job has been submitted.Задание Spark было отправлено.Spark Job Submission Failed. {0} Сбой при отправке задания Spark. {0}YarnUI Url: {0} URL-адрес YarnUI: {0} Spark History Url: {0} URL-адрес журнала Spark: {0}Get Application Id Failed. {0}Сбой при получении идентификатора приложения. {0}Local file {0} does not existed. Локальный файл {0} не существует.No SQL Server Big Data Cluster found.Кластер больших данных SQL Server не найден.Please connect to the Spark cluster before View {0} History.Перед просмотром журнала {0} необходимо подключиться к кластеру Spark.NOTICE: This file has been truncated at {0} for preview. Уведомление. Этот файл был обрезан на {0} для предварительного просмотра.The file has been truncated at {0} for preview.Файл был обрезан на {0} для предварительного просмотра.$(sync~spin) {0}...$(sync~spin) {0}…CancelОтменаCancel operation?Отменить операцию?Search Server NamesПоиск имен серверовNo Spark job batch id is returned from response.{0}[Error] {1}Идентификатор пакета задания Spark не возвращен из ответа.{0}[Ошибка] {1}No log is returned within response.{0}[Error] {1}Журнал не возвращен в ответе.{0}[Ошибка] {1}{0}Please provide the username to connect to the BDC Controller:{0}Укажите имя пользователя для подключения к контроллеру BDC:Please provide the password to connect to the BDC ControllerУкажите пароль для подключения к контроллеру BDCError: {0}. Ошибка: {0}. Username and password are requiredНеобходимо указать имя пользователя и парольAll FilesВсе файлыUploadПередатьUploading files to HDFSИдет отправка файлов в HDFSUpload operation was canceledОперация отправки была отмененаError uploading files: {0}Ошибка при отправке файлов: {0}Creating directoryИдет создание каталогаOperation was canceledОперация отмененаError on making directory: {0}Ошибка при создании каталога: {0}Enter directory nameВведите имя каталогаError on deleting files: {0}Ошибка при удалении файлов: {0}Are you sure you want to delete this folder and its contents?Вы действительно хотите удалить эту папку и ее содержимое?Are you sure you want to delete this file?Вы действительно хотите удалить этот файл?Saving HDFS FilesИдет сохранение файлов HDFSSave operation was canceledОперация сохранения была отмененаError on saving file: {0}Ошибка при сохранении файла: {0}Generating previewПодготовка к предварительному просмотруError on previewing file: {0}Ошибка при предварительном просмотре файла: {0}Error on copying path: {0}Ошибка в пути копирования: {0}An unexpected error occurred while opening the Manage Access dialog: {0}Непредвиденная ошибка при открытии диалогового окна "Управление доступом": {0}Invalid Data StructureНедопустимая структура данныхUnable to create WebHDFS client due to missing options: ${0}Не удалось создать клиент WebHDFS из-за отсутствующих параметров: ${0}'${0}' is undefined."${0}" не определен.Bad RequestНеправильный запросUnauthorizedНе авторизованоForbiddenЗапрещеноNot FoundНе найденInternal Server ErrorВнутренняя ошибка сервераUnknown ErrorНеизвестная ошибкаUnexpected RedirectНеожиданное перенаправлениеConnectionInfo is undefined.Параметр ConnectionInfo не определен.ConnectionInfo.options is undefined.Параметр ConnectionInfo.options не определен.Some missing properties in connectionInfo.options: {0}Отсутствуют некоторые свойства в параметре connectionInfo.options: {0}View Known IssuesПросмотреть известные проблемы{0} component exited unexpectedly. Please restart Azure Data Studio.Компонент {0} неожиданно завершил работу. Перезапустите Azure Data Studio.This sample code loads the file into a data frame and shows the first 10 results.Этот пример кода загружает файл в кадр данных и отображает первые 10 результатов.An error occurred converting the SQL document to a Notebook. Error : {0}Произошла ошибка при преобразовании документа SQL в записную книжку. Ошибка: {0}An error occurred converting the Notebook document to SQL. Error : {0}Произошла ошибка при преобразовании документа записной книжки в SQL. Ошибка: {0}NotebooksЗаписные книжкиOnly .ipynb Notebooks are supportedПоддерживаются только записные книжки IPYNBCould not find the controller endpoint for this instanceНе удалось найти конечную точку контроллера для этого экземпляраApplying permission changes recursively under '{0}'Рекурсивное применение изменений разрешений в "{0}"Permission changes applied successfully.Изменения разрешений применены.Applying permission changes to '{0}'.Применение изменений разрешений к "{0}".Error applying permission changes: {0}Ошибка при применении изменений разрешений: {0}YesДаNoНетSelect other SQL ServerВыберите другой сервер SQL ServerPlease select SQL Server with Big Data Cluster.Выберите сервер SQL Server с кластером больших данных.No SQL Server is selected.Сервер SQL Server не выбран.The selected server does not belong to a SQL Server Big Data ClusterВыбранный сервер не относится к кластеру больших данных SQL ServerError Get File Path: {0}Ошибка при получении пути к файлу: {0}Parameters for SparkJobSubmissionDialog is illegalНедопустимые параметры для SparkJobSubmissionDialogNew JobНовое заданиеCancelОтменаSubmitОтправить{0} Spark Job Submission:Отправка задания Spark {0}:.......................... Submit Spark Job Start ..........................…………………….. Начало отправки задания Spark ……………………..Parameters for SparkJobSubmissionModel is illegalНедопустимые параметры для SparkJobSubmissionModelsubmissionArgs is invalid. Аргументы submissionArgs являются недопустимыми. livyBatchId is invalid. Идентификатор livyBatchId является недопустимым. Get Application Id time out. {0}[Log] {1}Истекло время ожидания при получении идентификатора приложения. {0}[Журнал] {1}Property localFilePath or hdfsFolderPath is not specified. Не указано свойство localFilePath или hdfsFolderPath.Property Path is not specified. Путь к свойству не указан.GENERALОБЩИЕEnter a name ...Введите имя…Job NameИмя заданияSpark ClusterКластер SparkPath to a .jar or .py fileПуть к файлу JAR или PYThe selected local file will be uploaded to HDFS: {0}Выбранный локальный файл будет отправлен в HDFS: {0}JAR/py FileФайл JAR/pyMain ClassКласс MainArgumentsАргументыCommand line arguments used in your main class, multiple arguments should be split by space.Аргументы командной строки, используемые в классе main; несколько аргументов следует разделять пробелом.Property Job Name is not specified.Имя задания свойства не указано.Property JAR/py File is not specified.Не указан файл свойств JAR/PY.Property Main Class is not specified.Не указан класс свойств Main.{0} does not exist in Cluster or exception thrown. {0} не существует в кластере, или возникло исключение.The specified HDFS file does not exist. Указанный файл HDFS не существует. SelectВыбратьError in locating the file due to Error: {0}Не удалось обнаружить файл из-за ошибки: {0}ADVANCEDДОПОЛНИТЕЛЬНОReference JarsСсылки на JAR-файлыJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)JAR-файлы, помещаемые в рабочий каталог исполнителя. Путь к JAR-файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Reference py FilesPY-файлы ссылокPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Файлы PY, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Reference FilesФайлы ссылокFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Файлы, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Driver MemoryПамять драйвераAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Объем памяти, выделяемый драйверу. Укажите единицы как часть значения. Например, 512M или 2G.Driver CoresЯдра драйвераAmount of CPU cores to allocate to the driver.Число ядер ЦП, выделяемых драйверу.Executor MemoryПамять исполнителяAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Объем памяти, выделяемый исполнителю. Укажите единицы как часть значения. Например, 512M или 2G.Executor CoresЯдра исполнителяAmount of CPU cores to allocate to the executor.Число ядер ЦП, выделяемых исполнителю.Executor CountЧисло исполнителейNumber of instances of the executor to run.Число экземпляров исполнителя для запуска.Queue NameИмя очередиName of the Spark queue to execute the session in.Имя очереди Spark, в которой будет выполнен сеанс.Configuration ValuesЗначения параметров конфигурацииList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Список пар "имя — значение", содержащий значения параметров конфигурации Spark. Закодирован как словарь JSON. Пример: '{"имя":"значение", "имя2":"значение2"}'.Please provide the username to connect to HDFS:Укажите имя пользователя для подключения к HDFS:Please provide the password to connect to HDFS:Укажите пароль для подключения HDFS:Session for node {0} does not existСеанс для узла {0} не существуетError notifying of node change: {0}Ошибка при уведомлении об изменении узла: {0}HDFSHDFSRootКореньError: {0}Ошибка: {0}Cannot delete a connection. Only subfolders and files can be deleted.Не удается удалить подключение. Можно удалить только вложенные папки и файлы.Stream operation canceled by the userПотоковая операция отменена пользователемMetrics DashboardПанель мониторинга метрикLog Search DashboardПанель мониторинга поиска по журналамSpark Jobs Management and Monitoring DashboardПанель мониторинга для отслеживания заданий Spark и управления имиSpark Diagnostics and Monitoring DashboardПанель мониторинга для отслеживания и диагностики SparkCopyКопироватьApplication ProxyПрокси приложенияCluster Management ServiceСлужба управления кластерамиGateway to access HDFS files, SparkШлюз для доступа к файлам HDFS, SparkManagement ProxyПрокси-сервер управленияManagement ProxyПрокси-сервер управленияSQL Server Master Instance Front-EndИнтерфейс главного экземпляра SQL ServerMetrics DashboardПанель мониторинга метрикLog Search DashboardПанель мониторинга поиска по журналамSpark Diagnostics and Monitoring DashboardПанель мониторинга для отслеживания и диагностики SparkSpark Jobs Management and Monitoring DashboardПанель мониторинга для отслеживания заданий Spark и управления имиHDFS File System ProxyПрокси-сервер файловой системы HDFSProxy for running Spark statements, jobs, applicationsПрокси-сервер для выполнения инструкций, заданий и приложений Spark{0} Started{0} запущенStarting {0}Запуск (0)Failed to start {0}Не удалось запустить {0}Installing {0} to {1}Установка {0} в {1}Installing {0}Установка (0)Installed {0}Установлено: {0}Downloading {0}Идет загрузка {0}({0} KB)({0} КБ)Downloading {0}Идет загрузка {0}Done installing {0}Выполнена установка {0}Extracted {0} ({1}/{2})Извлечено {0} ({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure недоступна. Добавьте связанную учетную запись Azure и повторите запрос.Please select a linked Azure account:Выберите связанную учетную запись Azure:Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure не выбрана. Повторите запрос и выберите связанную учетную запись Azure при появлении соответствующего запроса.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.Настроенная учетная запись Azure для {0} не имеет необходимых разрешений для доступа Azure Key Vault к главному ключу столбца для Always Encrypted.