CopyКопироватьApplication ProxyПрокси приложенияCluster Management ServiceСлужба управления кластерамиGateway to access HDFS files, SparkШлюз для доступа к файлам HDFS, SparkMetrics DashboardПанель мониторинга метрикLog Search DashboardПанель мониторинга поиска по журналамProxy for running Spark statements, jobs, applicationsПрокси-сервер для выполнения инструкций, заданий и приложений SparkManagement ProxyПрокси-сервер управленияManagement ProxyПрокси-сервер управленияSpark Jobs Management and Monitoring DashboardПанель мониторинга для отслеживания заданий Spark и управления имиSQL Server Master Instance Front-EndИнтерфейс главного экземпляра SQL ServerHDFS File System ProxyПрокси-сервер файловой системы HDFSSpark Diagnostics and Monitoring DashboardПанель мониторинга для отслеживания и диагностики SparkMetrics DashboardПанель мониторинга метрикLog Search DashboardПанель мониторинга поиска по журналамSpark Jobs Management and Monitoring DashboardПанель мониторинга для отслеживания заданий Spark и управления имиSpark Diagnostics and Monitoring DashboardПанель мониторинга для отслеживания и диагностики SparkAzure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure не выбрана. Повторите запрос и выберите связанную учетную запись Azure при появлении соответствующего запроса.Please select a linked Azure account:Выберите связанную учетную запись Azure:The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.Настроенная учетная запись Azure для {0} не имеет необходимых разрешений для доступа Azure Key Vault к главному ключу столбца для Always Encrypted.Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure недоступна. Добавьте связанную учетную запись Azure и повторите запрос.Error applying permission changes: {0}Ошибка при применении изменений разрешений: {0}Applying permission changes to '{0}'.Применение изменений разрешений к "{0}".Applying permission changes recursively under '{0}'Рекурсивное применение изменений разрешений в "{0}"Permission changes applied successfully.Изменения разрешений применены.Bad RequestНеправильный запросUnauthorizedНе авторизованоForbiddenЗапрещеноNot FoundНе найденInternal Server ErrorВнутренняя ошибка сервераInvalid Data StructureНедопустимая структура данныхUnable to create WebHDFS client due to missing options: ${0}Не удалось создать клиент WebHDFS из-за отсутствующих параметров: ${0}'${0}' is undefined."${0}" не определен.Unexpected RedirectНеожиданное перенаправлениеUnknown ErrorНеизвестная ошибкаNode Command called without any node passedКоманда Node вызвана без передачи какого-либо узлаAccessДоступAddДобавитьAdd User or GroupДобавление пользователя или группыApplyПрименитьApply RecursivelyПрименить рекурсивноDefaultПо умолчаниюDefault User and GroupsПользователь и группы по умолчаниюDeleteУдалитьEnter nameВведите имяUnexpected error occurred while applying changes : {0}Непредвиденная ошибка при применении изменений: {0}Everyone elseВсе остальныеExecuteВыполнениеFailed to find azure account {0} when executing token refreshНе удалось найти учетную запись Azure {0} при обновлении токенаFailed to find tenant '{0}' in account '{1}' when refreshing security tokenНе удалось найти клиент ''{0}'' в учетной записи ''{1}'' при обновлении токена безопасностиGroupГруппаGroupГруппаInherit DefaultsУнаследовать значения по умолчаниюLocation : Расположение: Manage AccessУправление доступомNamed Users and GroupsИменованные пользователи и группыOwnerВладелец - Owner — Владелец - Owning Group — Группа-владелецPermissionsРазрешенияReadЧтениеSticky BitБит закрепления{0} AAD token refresh failed, please reconnect to enable {0}{0} Не удалось обновить токен AAD. Пожалуйста, подключитесь повторно, чтобы включить {0}Editor token refresh failed, autocompletion will be disabled until the editor is disconnected and reconnectedНе удалось обновить токен редактора, автозаполнение будет отключено до тех пор, пока редактор не будет отключен и подключен снова.UserПользовательUser or Group IconЗначок пользователя или группыWriteЗаписьPlease connect to the Spark cluster before View {0} History.Перед просмотром журнала {0} необходимо подключиться к кластеру Spark.Get Application Id Failed. {0}Сбой при получении идентификатора приложения. {0}Local file will be uploaded to HDFS. Локальный файл будет отправлен в HDFS.Local file {0} does not existed. Локальный файл {0} не существует.No SQL Server Big Data Cluster found.Кластер больших данных SQL Server не найден.Submitting job {0} ... Отправка задания {0}... Uploading file from local {0} to HDFS folder: {1}Отправка файла из локального {0} в папку HDFS: {1}Spark History Url: {0} URL-адрес журнала Spark: {0}.......................... Submit Spark Job End ...................................................... Конец отправки задания Spark ............................Spark Job Submission Failed. {0} Сбой при отправке задания Spark. {0}The Spark Job has been submitted.Задание Spark было отправлено.Upload file to cluster Failed. {0}Отправка файла в кластер завершилась сбоем. {0}Upload file to cluster Succeeded!Отправка файла в кластер успешно завершена.YarnUI Url: {0} URL-адрес YarnUI: {0} This sample code loads the file into a data frame and shows the first 10 results.Этот пример кода загружает файл в кадр данных и отображает первые 10 результатов.An error occurred converting the SQL document to a Notebook. Error : {0}Произошла ошибка при преобразовании документа SQL в записную книжку. Ошибка: {0}An error occurred converting the Notebook document to SQL. Error : {0}Произошла ошибка при преобразовании документа записной книжки в SQL. Ошибка: {0}Could not find the controller endpoint for this instanceНе удалось найти конечную точку контроллера для этого экземпляраNotebooksЗаписные книжкиOnly .ipynb Notebooks are supportedПоддерживаются только записные книжки IPYNBStream operation canceled by the userПотоковая операция отменена пользователемCancel operation?Отменить операцию?CancelОтменаSearch Server NamesПоиск имен серверов$(sync~spin) {0}...$(sync~spin) {0}…Some missing properties in connectionInfo.options: {0}Отсутствуют некоторые свойства в параметре connectionInfo.options: {0}ConnectionInfo.options is undefined.Параметр ConnectionInfo.options не определен.ConnectionInfo is undefined.Параметр ConnectionInfo не определен.NOTICE: This file has been truncated at {0} for preview. Уведомление. Этот файл был обрезан на {0} для предварительного просмотра.The file has been truncated at {0} for preview.Файл был обрезан на {0} для предварительного просмотра.All FilesВсе файлыError on copying path: {0}Ошибка в пути копирования: {0}Error on deleting files: {0}Ошибка при удалении файлов: {0}Enter directory nameВведите имя каталогаUploadПередатьCreating directoryИдет создание каталогаAn unexpected error occurred while opening the Manage Access dialog: {0}Непредвиденная ошибка при открытии диалогового окна "Управление доступом": {0}Error on making directory: {0}Ошибка при создании каталога: {0}Operation was canceledОперация отмененаAre you sure you want to delete this file?Вы действительно хотите удалить этот файл?Are you sure you want to delete this folder and its contents?Вы действительно хотите удалить эту папку и ее содержимое?Error on previewing file: {0}Ошибка при предварительном просмотре файла: {0}Generating previewПодготовка к предварительному просмотруSave operation was canceledОперация сохранения была отмененаError on saving file: {0}Ошибка при сохранении файла: {0}Saving HDFS FilesИдет сохранение файлов HDFSUpload operation was canceledОперация отправки была отмененаError uploading files: {0}Ошибка при отправке файлов: {0}Uploading files to HDFSИдет отправка файлов в HDFSCannot delete a connection. Only subfolders and files can be deleted.Не удается удалить подключение. Можно удалить только вложенные папки и файлы.Error: {0}Ошибка: {0}HDFSHDFSError notifying of node change: {0}Ошибка при уведомлении об изменении узла: {0}Please provide the password to connect to HDFS:Укажите пароль для подключения HDFS:Please provide the username to connect to HDFS:Укажите имя пользователя для подключения к HDFS:RootКореньSession for node {0} does not existСеанс для узла {0} не существуетNoНетYesДаThe selected server does not belong to a SQL Server Big Data ClusterВыбранный сервер не относится к кластеру больших данных SQL ServerSelect other SQL ServerВыберите другой сервер SQL ServerError Get File Path: {0}Ошибка при получении пути к файлу: {0}No SQL Server is selected.Сервер SQL Server не выбран.Please select SQL Server with Big Data Cluster.Выберите сервер SQL Server с кластером больших данных.ADVANCEDДОПОЛНИТЕЛЬНОReference FilesФайлы ссылокFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Файлы, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Reference JarsСсылки на JAR-файлыJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)JAR-файлы, помещаемые в рабочий каталог исполнителя. Путь к JAR-файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Reference py FilesPY-файлы ссылокPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Файлы PY, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;)Configuration ValuesЗначения параметров конфигурацииList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Список пар "имя — значение", содержащий значения параметров конфигурации Spark. Закодирован как словарь JSON. Пример: '{"имя":"значение", "имя2":"значение2"}'.Driver CoresЯдра драйвераAmount of CPU cores to allocate to the driver.Число ядер ЦП, выделяемых драйверу.Driver MemoryПамять драйвераAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Объем памяти, выделяемый драйверу. Укажите единицы как часть значения. Например, 512M или 2G.Executor CoresЯдра исполнителяAmount of CPU cores to allocate to the executor.Число ядер ЦП, выделяемых исполнителю.Executor CountЧисло исполнителейNumber of instances of the executor to run.Число экземпляров исполнителя для запуска.Executor MemoryПамять исполнителяAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Объем памяти, выделяемый исполнителю. Укажите единицы как часть значения. Например, 512M или 2G.Queue NameИмя очередиName of the Spark queue to execute the session in.Имя очереди Spark, в которой будет выполнен сеанс.ArgumentsАргументыCommand line arguments used in your main class, multiple arguments should be split by space.Аргументы командной строки, используемые в классе main; несколько аргументов следует разделять пробелом.Path to a .jar or .py fileПуть к файлу JAR или PYGENERALОБЩИЕThe specified HDFS file does not exist. Указанный файл HDFS не существует. {0} does not exist in Cluster or exception thrown. {0} не существует в кластере, или возникло исключение.Job NameИмя заданияEnter a name ...Введите имя…The selected local file will be uploaded to HDFS: {0}Выбранный локальный файл будет отправлен в HDFS: {0}Main ClassКласс MainJAR/py FileФайл JAR/pyProperty JAR/py File is not specified.Не указан файл свойств JAR/PY.Property Job Name is not specified.Имя задания свойства не указано.Property Main Class is not specified.Не указан класс свойств Main.Error in locating the file due to Error: {0}Не удалось обнаружить файл из-за ошибки: {0}Spark ClusterКластер SparkSelectВыбратьCancelОтменаSubmitОтправитьNew JobНовое заданиеParameters for SparkJobSubmissionDialog is illegalНедопустимые параметры для SparkJobSubmissionDialog.......................... Submit Spark Job Start ..........................…………………….. Начало отправки задания Spark ……………………..{0} Spark Job Submission:Отправка задания Spark {0}:Get Application Id time out. {0}[Log] {1}Истекло время ожидания при получении идентификатора приложения. {0}[Журнал] {1}livyBatchId is invalid. Идентификатор livyBatchId является недопустимым. Property Path is not specified. Путь к свойству не указан.Parameters for SparkJobSubmissionModel is illegalНедопустимые параметры для SparkJobSubmissionModelProperty localFilePath or hdfsFolderPath is not specified. Не указано свойство localFilePath или hdfsFolderPath.submissionArgs is invalid. Аргументы submissionArgs являются недопустимыми. No Spark job batch id is returned from response.{0}[Error] {1}Идентификатор пакета задания Spark не возвращен из ответа.{0}[Ошибка] {1}No log is returned within response.{0}[Error] {1}Журнал не возвращен в ответе.{0}[Ошибка] {1}Error: {0}. Ошибка: {0}. Please provide the password to connect to the BDC ControllerУкажите пароль для подключения к контроллеру BDC{0}Please provide the username to connect to the BDC Controller:{0}Укажите имя пользователя для подключения к контроллеру BDC:Username and password are requiredНеобходимо указать имя пользователя и парольDownloaded {0}Скачано {0}Downloading {0}Идет загрузка {0}({0} KB)({0} КБ)Downloading {0}Идет загрузка {0}Extracted {0} ({1}/{2})Извлечено {0} ({1}/{2})Failed to start {0}Не удалось запустить {0}Installed {0}Установлено: {0}Installing {0} to {1}Установка {0} в {1}Installing {0}Установка (0){0} Started{0} запущенStarting {0}Запуск (0)New TableСоздать таблицуNoНетDo you want to reduce the table designer load time by enabling the database model preloading? The database model will be preloaded when you expand the database node in object explorer.Хотите сократить время загрузки конструктора таблиц, включив предварительную загрузку модели базы данных? Модель базы данных будет предварительно загружена при развертывании узла базы данных в обозревателе объектов.YesДа{0} component exited unexpectedly. Please restart Azure Data Studio.Компонент {0} неожиданно завершил работу. Перезапустите Azure Data Studio.View Known IssuesПросмотреть известные проблемыEditionВыпускCompatibility LevelУровень совместимостиOwnerВладелецPricing TierЦеновая категорияTypeТипVersionВерсияLast backupПоследняя архивацияNameИмяSize (MB)Размер (МБ)StatusСостояниеEnable/disable default JSON formatter (requires restart)Включение или отключение модуля форматирования JSON по умолчанию (требуется перезагрузка)Associate schemas to JSON files in the current projectСвязь схем с JSON-файлами в текущем проектеAn array of file patterns to match against when resolving JSON files to schemas.Массив шаблонов файлов, с которым выполняется сравнение, при разрешении JSON-файлов в схемах.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Шаблон файла, который может содержать "*" и с которым выполняется сравнение, при разрешении JSON-файлов в схемах.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Определение схемы для указанного URL-адреса. Схему необходимо указать только для того, чтобы не обращаться по URL-адресу схемы.A URL to a schema or a relative path to a schema in the current directoryURL-адрес схемы или относительный путь к ней в текущем каталогеMSSQL configurationКонфигурация MSSQLDeclares the application workload type when connecting to a serverОбъявляет тип рабочей нагрузки приложения при подключении к серверуApplication intentНамерение приложенияThe name of the applicationИмя приложенияApplication nameИмя приложенияAttach DB filenameИмя вложенного файла базы данныхThe name of the primary file, including the full path name, of an attachable databaseИмя первичного файла прикрепляемой базы данных, включая полный путьAttached DB file nameИмя вложенного файла базы данныхAzure Active Directory - Universal with MFA supportAzure Active Directory — универсальный с поддержкой MFAWindows AuthenticationПроверка подлинности Windows.SQL LoginИмя входа SQLSpecifies the method of authenticating with SQL ServerУказывает способ проверки подлинности в SQL ServerAuthentication typeТип проверки подлинностиEnables or disables Always Encrypted for the connectionВключает или отключает Always Encrypted для подключенияAlways EncryptedAlways EncryptedNumber of attempts to restore connectionЧисло попыток восстановления подключенияConnect retry countСчетчик повторных попыток для подключенияDelay between attempts to restore connectionЗадержка между попытками восстановления подключенияConnect retry intervalИнтервал повторных попыток подключенияThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorДлительность (в секундах) ожидания при подключении к серверу, после чего попытка прекращается и выводится ошибкаConnect timeoutИстекло время ожидания подключенияCustom name of the connectionНастраиваемое имя подключенияName (optional)Имя (необязательно)When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processЕсли задано значение TRUE, указывает, что подключение должно быть произведено в контексте SQL Server. Доступно только при выполнении в процессе SQL Server.Context connectionКонтекстное подключениеThe SQL Server language record nameИмя записи языка SQL ServerCurrent languageТекущий языкThe name of the initial catalog or database int the data sourceИмя исходного каталога или базы данных в источнике данныхDatabaseБаза данныхAzure AttestationАттестация AzureHost Guardian ServiceСлужба защиты узлаSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesЗадает протокол для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавамиAttestation ProtocolПротокол аттестацииSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesЗадает конечную точку для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавамиEnclave Attestation URLURL-адрес аттестации анклаваWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedКогда задано значение TRUE, SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером, если на сервере установлен сертификатEncryptШифроватьThe name or network address of the instance of SQL Server that acts as a failover partnerИмя или сетевой адрес экземпляра SQL Server, выступающего в роли партнера по обеспечению отработки отказаFailover partnerПартнер по обеспечению отработки отказаAdvancedДополнительноConnection ResiliencyУстойчивость подключенийContextКонтекстInitializationИнициализацияPoolingОбъединение в пулReplicationРепликацияSecurityБезопасностьSourceИсточникThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedМинимальное время (в секундах), которое это подключение будет оставаться в пуле до уничтоженияLoad balance timeoutИстекло время ожидания при балансировке нагрузкиThe maximum number of connections allowed in the poolМаксимально допустимое число подключений в пулеMax pool sizeМаксимальный размер пулаThe minimum number of connections allowed in the poolМинимально допустимое число подключений в пулеMin pool sizeМинимальный размер пулаMulti subnet failoverОтработка отказа в нескольких подсетяхWhen true, multiple result sets can be returned and read from one connectionЕсли задано значение TRUE, из одного подключения может быть возвращено и считано несколько результирующих наборовMultiple active result setsМножественные активные результирующие наборыSize in bytes of the network packets used to communicate with an instance of SQL ServerРазмер (в байтах) сетевых пакетов, которые используются для взаимодействия с экземпляром SQL ServerPacket sizeРазмер пакетаIndicates the password to be used when connecting to the data sourceУказывает пароль, который необходимо использовать для подключения к источнику данныхPasswordПарольWhen false, security-sensitive information, such as the password, is not returned as part of the connectionЕсли задано значение FALSE, то секретные данные (например, пароль) не возвращаются в составе подключенияPersist security infoСохранение сведений о безопасностиWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolЕсли задано значение TRUE, объект соединения извлекается из соответствующего пула или при необходимости создается и добавляется в соответствующий пулPoolingОбъединение в пулPortПортUsed by SQL Server in ReplicationИспользуется SQL Server при репликацииReplicationРепликацияName of the SQL Server instanceИмя экземпляра SQL ServerServerСерверWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateКогда задано значение TRUE (и encrypt=true), SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером без проверки сертификата сервераTrust server certificateДоверять сертификату сервераIndicates which server type system the provider will expose through the DataReaderУказывает серверную систему, доступ к которой поставщик будет предоставлять через DataReaderType system versionВерсия системы типовIndicates the user ID to be used when connecting to the data sourceУказывает идентификатор пользователя, который необходимо использовать для подключения к источнику данныхUser nameИмя пользователяThe name of the workstation connecting to SQL ServerИмя рабочей станции, подключающейся к SQL ServerWorkstation IdИдентификатор рабочей станцииDisabledОтключеноEnabledВключеноHighlights the execution plan operation with the greatest actual number of rows for all executions.Выделяет операцию плана выполнения с наибольшим фактическим числом строк для всех выполнений.Highlights the execution plan operation with the highest cost.Выделяет операцию плана выполнения с наибольшей ресурсоемкостью.The default metric to use to highlight an expensive operation in query execution plansМетрика по умолчанию, используемая для выделения ресурсоемкой операции в планах выполнения запросов.Highlights the execution plan operation that used the most CPU time.Выделяет операцию плана выполнения, использовавшую больше всего процессорного времени.Highlights the execution plan operation that took the most time.Выделяет операцию плана выполнения, занявшую больше всего времени.Expensive operation highlighting will be turned off for execution plans.Выделение ресурсоемких операций будет отключено для планов выполнения.Highlights the execution plan operation with the greatest number of rows read.Выделяет операцию плана выполнения с наибольшим количеством прочитанных строк.Highlights the execution plan operation with the highest subtree cost.Выделяет операцию плана выполнения с наибольшей ресурсоемкостью поддерева.Export Notebook as SQLЭкспорт записной книжки в виде SQLExport SQL as NotebookЭкспорт SQL в виде записной книжкиShould column definitions be aligned?Должны ли определения столбцов быть выровнены?Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)Следует ли форматировать типы данных в верхнем регистре, нижнем регистре или оставить без форматирования ("нет")Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Следует ли форматировать ключевые слова в верхнем регистре, нижнем регистре или оставить без форматирования ("нет")should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Следует ли ставить запятые в начале каждой инструкции в списке, например ", mycolumn2", а не в конце, например "mycolumn1,"Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesНужно ли разделять на отдельные строки ссылки на объекты в выбранных инструкциях? Например, для "SELECT C1, C2 FROM T1" как C1, так и C2 будут находиться на отдельных строках[Optional] Do not show unsupported platform warnings[Необязательно] Не показывать предупреждения для неподдерживаемых платформShould IntelliSense error checking be enabledДолжна ли быть включена проверка ошибок IntelliSenseShould IntelliSense be enabledДолжен ли быть включен IntelliSenseShould IntelliSense quick info be enabledДолжны ли быть включены краткие сведения IntelliSenseShould IntelliSense suggestions be enabledДолжны ли быть включены подсказки IntelliSenseShould IntelliSense suggestions be lowercaseСледует ли подсказкам IntelliSense использовать строчные буквы[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Необязательно] Выведите выходные данные отладки в консоль (Вид -> Вывод), а затем выберите подходящий выходной канал в раскрывающемся спискеMaximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Максимальное число старых файлов, удаляемых при запуске, с истекшим сроком mssql.logRetentionMinutes. Файлы, которые не были очищены из-за этого ограничения, очищаются при следующем запуске Azure Data Studio.Number of minutes to retain log files for backend services. Default is 1 week.Срок хранения файлов журналов (в минутах) для серверных служб. По умолчанию задана 1 неделя.[Experimental] Whether the requests to the SQL Tools Service should be handled in parallel. This is introduced to discover the issues there might be when handling all requests in parallel. The default value is false. Relaunch of ADS is required when the value is changed.[Experimental] Следует ли обрабатывать запросы к службе SQL Tools Service одновременно. Этот параметр введен для обнаружения проблем, которые могут возникнуть при параллельной обработке всех запросов. Значение по умолчанию — false. При изменении значения требуется перезапуск ADS.Microsoft SQL ServerMicrosoft SQL ServerEnable Parameterization for Always EncryptedВключить параметризацию для Always EncryptedEnable SET ANSI_DEFAULTSУстановить параметр SET ANSI_DEFAULTSEnable SET ANSI_NULL_DFLT_ONУстановить параметр SET ANSI_NULL_DFLT_ONEnable SET ANSI_NULLSУстановить параметр SET ANSI_NULLSEnable SET ANSI_PADDINGУстановить параметр SET ANSI_PADDINGEnable SET ANSI_WARNINGSУстановить параметр SET ANSI_WARNINGSEnable SET ARITHABORT optionУстановить параметр SET ARITHABORTEnable SET CURSOR_CLOSE_ON_COMMITУстановить параметр SET CURSOR_CLOSE_ON_COMMITEnable SET DEADLOCK_PRIORITY optionУстановить параметр SET DEADLOCK_PRIORITYShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Нужно ли отображать столбцы BIT как числа (1 или 0)? Если задано значение FALSE, столбцы BIT будут отображаться как "TRUE" или "FALSE"An execution time-out of 0 indicates an unlimited wait (no time-out)Время ожидания выполнения, равное 0, указывает на неограниченное время ожиданияEnable SET IMPLICIT_TRANSACTIONSУстановить параметр SET IMPLICIT_TRANSACTIONSEnable SET LOCK TIMEOUT option (in milliseconds)Установить параметр SET LOCK TIMEOUT (в миллисекундах)Maximum number of characters/bytes to store for each value in character/binary columns after running a query. Default value: 65,535. Valid value range: 1 to 2,147,483,647.Максимальное сохраняемое количество символов/байт для каждого значения в символьных/двоичных столбцах после выполнения запроса. Значение по умолчанию: 65 535. Допустимый диапазон значений: от 1 до 2 147 483 647.Maximum number of characters to store for each value in XML columns after running a query. Default value: 2,097,152. Valid value range: 1 to 2,147,483,647.Максимальное сохраняемое количество символов для каждого значения в столбцах XML после выполнения запроса. Значение по умолчанию: 2 097 152. Допустимый диапазон значений: от 1 до 2 147 483 647.Enable SET NOCOUNT optionУстановить параметр SET NOCOUNTEnable SET NOEXEC optionУстановить параметр SET NOEXECEnable SET PARSEONLY optionУстановить параметр SET PARSEONLYEnable SET QUERY_GOVERNOR_COST_LIMITУстановить параметр SET QUERY_GOVERNOR_COST_LIMITEnable SET QUOTED_IDENTIFIERУстановить параметр SET QUOTED_IDENTIFIERMaximum number of rows to return before the server stops processing your query.Максимальное число строк, которые будут возвращены перед тем, как сервер перестанет обрабатывать ваш запрос.Enable SET STATISTICS IO optionУстановить параметр SET STATISTICS IOEnable SET STATISTICS TIME optionУстановить параметр SET STATISTICS TIMEMaximum size of text and ntext data returned from a SELECT statementМаксимальный размер текста и данных ntext, возвращаемых инструкцией SELECTEnable SET TRANSACTION ISOLATION LEVEL optionУстановить параметр SET TRANSACTION ISOLATION LEVELEnable SET XACT_ABORT ON optionУстановить параметр SET XACT_ABORT ONWhether to preload the database model when the database node in the object explorer is expanded. When enabled, the loading time of table designer can be reduced. Note: You might see higher than normal memory usage if you need to expand a lot of database nodes.Следует ли предварительно загружать модель базы данных при расширении узла базы данных в проводнике объектов. При включении время загрузки конструктора таблиц может быть уменьшено. Примечание. Если вам нужно расширить множество узлов базы данных, использование памяти может быть выше обычного.[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Необязательно] Уровень ведения журнала для серверных служб. Azure Data Studio создает имя файла при каждом запуске, а если такой файл уже существует, записи журналов добавляются в него. Для очистки старых файлов журналов см. описание параметров logRetentionMinutes и logFilesRemovalLimit. Параметр tracingLevel по умолчанию регистрирует не слишком многое. Изменение детализации может привести к тому, что журналы будут занимать слишком много места. Ошибка включает критический уровень, предупреждение включает ошибку, информационный уровень включает предупреждение, а подробный уровень включает информационный уровень.Copy PathСкопировать путьDeleteУдалитьManage AccessУправление доступомNew directoryСоздать каталогPreviewПредварительная версияSaveСохранитьUpload filesОтправить файлыNew NotebookСоздать записную книжкуOpen NotebookОткрыть записную книжкуNameИмяCompatibility LevelУровень совместимостиLast Database BackupПоследнее резервное копирование базы данныхLast Log BackupПоследняя резервная копия журналаOwnerВладелецRecovery ModelМодель восстановленияComputer NameИмя компьютераOS VersionВерсия ОСEditionВыпускVersionВерсияTasks and information about your SQL Server Big Data ClusterЗадачи и сведения о вашем кластере больших данных SQL ServerSQL Server Big Data ClusterКластер больших данных SQL ServerNotebooksЗаписные книжкиSearch: Clear Search Server ResultsПоиск: очистить результаты поиска сервераConfigure Python for NotebooksНастройка Python для Записных книжекDesignКонструкторService EndpointsКонечные точки службыInstall PackagesУстановка пакетовNew Spark JobСоздать задание SparkNew TableСоздать таблицуCluster
DashboardПанель мониторинга
кластераView Spark HistoryПросмотреть журнал SparkView Yarn HistoryПросмотреть журнал YARNSearch: ServersПоиск: серверыShow Log FileПоказать файл журналаSubmit Spark JobОтправить задание SparkTasksЗадачи