Copy Копировать Application Proxy Прокси приложения Cluster Management Service Служба управления кластерами Gateway to access HDFS files, Spark Шлюз для доступа к файлам HDFS, Spark Metrics Dashboard Панель мониторинга метрик Log Search Dashboard Панель мониторинга поиска по журналам Proxy for running Spark statements, jobs, applications Прокси-сервер для выполнения инструкций, заданий и приложений Spark Management Proxy Прокси-сервер управления Management Proxy Прокси-сервер управления Spark Jobs Management and Monitoring Dashboard Панель мониторинга для отслеживания заданий Spark и управления ими SQL Server Master Instance Front-End Интерфейс главного экземпляра SQL Server HDFS File System Proxy Прокси-сервер файловой системы HDFS Spark Diagnostics and Monitoring Dashboard Панель мониторинга для отслеживания и диагностики Spark Metrics Dashboard Панель мониторинга метрик Log Search Dashboard Панель мониторинга поиска по журналам Spark Jobs Management and Monitoring Dashboard Панель мониторинга для отслеживания заданий Spark и управления ими Spark Diagnostics and Monitoring Dashboard Панель мониторинга для отслеживания и диагностики Spark Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure не выбрана. Повторите запрос и выберите связанную учетную запись Azure при появлении соответствующего запроса. Please select a linked Azure account: Выберите связанную учетную запись Azure: The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. Настроенная учетная запись Azure для {0} не имеет необходимых разрешений для доступа Azure Key Vault к главному ключу столбца для Always Encrypted. Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio необходимо связаться с Azure Key Vault для доступа к главному ключу столбца для Always Encrypted, но связанная учетная запись Azure недоступна. Добавьте связанную учетную запись Azure и повторите запрос. Error applying permission changes: {0} Ошибка при применении изменений разрешений: {0} Applying permission changes to '{0}'. Применение изменений разрешений к "{0}". Applying permission changes recursively under '{0}' Рекурсивное применение изменений разрешений в "{0}" Permission changes applied successfully. Изменения разрешений применены. Bad Request Неправильный запрос Unauthorized Не авторизовано Forbidden Запрещено Not Found Не найден Internal Server Error Внутренняя ошибка сервера Invalid Data Structure Недопустимая структура данных Unable to create WebHDFS client due to missing options: ${0} Не удалось создать клиент WebHDFS из-за отсутствующих параметров: ${0} '${0}' is undefined. "${0}" не определен. Unexpected Redirect Неожиданное перенаправление Unknown Error Неизвестная ошибка Node Command called without any node passed Команда Node вызвана без передачи какого-либо узла Access Доступ Add Добавить Add User or Group Добавление пользователя или группы Apply Применить Apply Recursively Применить рекурсивно Default По умолчанию Default User and Groups Пользователь и группы по умолчанию Delete Удалить Enter name Введите имя Unexpected error occurred while applying changes : {0} Непредвиденная ошибка при применении изменений: {0} Everyone else Все остальные Execute Выполнение Failed to find azure account {0} when executing token refresh Не удалось найти учетную запись Azure {0} при обновлении токена Failed to find tenant '{0}' in account '{1}' when refreshing security token Не удалось найти клиент ''{0}'' в учетной записи ''{1}'' при обновлении токена безопасности Group Группа Group Группа Inherit Defaults Унаследовать значения по умолчанию Location : Расположение: Manage Access Управление доступом Named Users and Groups Именованные пользователи и группы Owner Владелец - Owner — Владелец - Owning Group — Группа-владелец Permissions Разрешения Read Чтение Sticky Bit Бит закрепления {0} AAD token refresh failed, please reconnect to enable {0} {0} Не удалось обновить токен AAD. Пожалуйста, подключитесь повторно, чтобы включить {0} Editor token refresh failed, autocompletion will be disabled until the editor is disconnected and reconnected Не удалось обновить токен редактора, автозаполнение будет отключено до тех пор, пока редактор не будет отключен и подключен снова. User Пользователь User or Group Icon Значок пользователя или группы Write Запись Please connect to the Spark cluster before View {0} History. Перед просмотром журнала {0} необходимо подключиться к кластеру Spark. Get Application Id Failed. {0} Сбой при получении идентификатора приложения. {0} Local file will be uploaded to HDFS. Локальный файл будет отправлен в HDFS. Local file {0} does not existed. Локальный файл {0} не существует. No SQL Server Big Data Cluster found. Кластер больших данных SQL Server не найден. Submitting job {0} ... Отправка задания {0}... Uploading file from local {0} to HDFS folder: {1} Отправка файла из локального {0} в папку HDFS: {1} Spark History Url: {0} URL-адрес журнала Spark: {0} .......................... Submit Spark Job End ............................ .......................... Конец отправки задания Spark ............................ Spark Job Submission Failed. {0} Сбой при отправке задания Spark. {0} The Spark Job has been submitted. Задание Spark было отправлено. Upload file to cluster Failed. {0} Отправка файла в кластер завершилась сбоем. {0} Upload file to cluster Succeeded! Отправка файла в кластер успешно завершена. YarnUI Url: {0} URL-адрес YarnUI: {0} This sample code loads the file into a data frame and shows the first 10 results. Этот пример кода загружает файл в кадр данных и отображает первые 10 результатов. An error occurred converting the SQL document to a Notebook. Error : {0} Произошла ошибка при преобразовании документа SQL в записную книжку. Ошибка: {0} An error occurred converting the Notebook document to SQL. Error : {0} Произошла ошибка при преобразовании документа записной книжки в SQL. Ошибка: {0} Could not find the controller endpoint for this instance Не удалось найти конечную точку контроллера для этого экземпляра Notebooks Записные книжки Only .ipynb Notebooks are supported Поддерживаются только записные книжки IPYNB Stream operation canceled by the user Потоковая операция отменена пользователем Cancel operation? Отменить операцию? Cancel Отмена Search Server Names Поиск имен серверов $(sync~spin) {0}... $(sync~spin) {0}… Some missing properties in connectionInfo.options: {0} Отсутствуют некоторые свойства в параметре connectionInfo.options: {0} ConnectionInfo.options is undefined. Параметр ConnectionInfo.options не определен. ConnectionInfo is undefined. Параметр ConnectionInfo не определен. NOTICE: This file has been truncated at {0} for preview. Уведомление. Этот файл был обрезан на {0} для предварительного просмотра. The file has been truncated at {0} for preview. Файл был обрезан на {0} для предварительного просмотра. All Files Все файлы Error on copying path: {0} Ошибка в пути копирования: {0} Error on deleting files: {0} Ошибка при удалении файлов: {0} Enter directory name Введите имя каталога Upload Передать Creating directory Идет создание каталога An unexpected error occurred while opening the Manage Access dialog: {0} Непредвиденная ошибка при открытии диалогового окна "Управление доступом": {0} Error on making directory: {0} Ошибка при создании каталога: {0} Operation was canceled Операция отменена Are you sure you want to delete this file? Вы действительно хотите удалить этот файл? Are you sure you want to delete this folder and its contents? Вы действительно хотите удалить эту папку и ее содержимое? Error on previewing file: {0} Ошибка при предварительном просмотре файла: {0} Generating preview Подготовка к предварительному просмотру Save operation was canceled Операция сохранения была отменена Error on saving file: {0} Ошибка при сохранении файла: {0} Saving HDFS Files Идет сохранение файлов HDFS Upload operation was canceled Операция отправки была отменена Error uploading files: {0} Ошибка при отправке файлов: {0} Uploading files to HDFS Идет отправка файлов в HDFS Cannot delete a connection. Only subfolders and files can be deleted. Не удается удалить подключение. Можно удалить только вложенные папки и файлы. Error: {0} Ошибка: {0} HDFS HDFS Error notifying of node change: {0} Ошибка при уведомлении об изменении узла: {0} Please provide the password to connect to HDFS: Укажите пароль для подключения HDFS: Please provide the username to connect to HDFS: Укажите имя пользователя для подключения к HDFS: Root Корень Session for node {0} does not exist Сеанс для узла {0} не существует No Нет Yes Да The selected server does not belong to a SQL Server Big Data Cluster Выбранный сервер не относится к кластеру больших данных SQL Server Select other SQL Server Выберите другой сервер SQL Server Error Get File Path: {0} Ошибка при получении пути к файлу: {0} No SQL Server is selected. Сервер SQL Server не выбран. Please select SQL Server with Big Data Cluster. Выберите сервер SQL Server с кластером больших данных. ADVANCED ДОПОЛНИТЕЛЬНО Reference Files Файлы ссылок Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Файлы, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;) Reference Jars Ссылки на JAR-файлы Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) JAR-файлы, помещаемые в рабочий каталог исполнителя. Путь к JAR-файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;) Reference py Files PY-файлы ссылок Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Файлы PY, помещаемые в рабочий каталог исполнителя. Путь к файлу должен быть путем HDFS. Несколько путей следует разделять точкой с запятой (;) Configuration Values Значения параметров конфигурации List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Список пар "имя — значение", содержащий значения параметров конфигурации Spark. Закодирован как словарь JSON. Пример: '{"имя":"значение", "имя2":"значение2"}'. Driver Cores Ядра драйвера Amount of CPU cores to allocate to the driver. Число ядер ЦП, выделяемых драйверу. Driver Memory Память драйвера Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. Объем памяти, выделяемый драйверу. Укажите единицы как часть значения. Например, 512M или 2G. Executor Cores Ядра исполнителя Amount of CPU cores to allocate to the executor. Число ядер ЦП, выделяемых исполнителю. Executor Count Число исполнителей Number of instances of the executor to run. Число экземпляров исполнителя для запуска. Executor Memory Память исполнителя Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Объем памяти, выделяемый исполнителю. Укажите единицы как часть значения. Например, 512M или 2G. Queue Name Имя очереди Name of the Spark queue to execute the session in. Имя очереди Spark, в которой будет выполнен сеанс. Arguments Аргументы Command line arguments used in your main class, multiple arguments should be split by space. Аргументы командной строки, используемые в классе main; несколько аргументов следует разделять пробелом. Path to a .jar or .py file Путь к файлу JAR или PY GENERAL ОБЩИЕ The specified HDFS file does not exist. Указанный файл HDFS не существует. {0} does not exist in Cluster or exception thrown. {0} не существует в кластере, или возникло исключение. Job Name Имя задания Enter a name ... Введите имя… The selected local file will be uploaded to HDFS: {0} Выбранный локальный файл будет отправлен в HDFS: {0} Main Class Класс Main JAR/py File Файл JAR/py Property JAR/py File is not specified. Не указан файл свойств JAR/PY. Property Job Name is not specified. Имя задания свойства не указано. Property Main Class is not specified. Не указан класс свойств Main. Error in locating the file due to Error: {0} Не удалось обнаружить файл из-за ошибки: {0} Spark Cluster Кластер Spark Select Выбрать Cancel Отмена Submit Отправить New Job Новое задание Parameters for SparkJobSubmissionDialog is illegal Недопустимые параметры для SparkJobSubmissionDialog .......................... Submit Spark Job Start .......................... …………………….. Начало отправки задания Spark …………………….. {0} Spark Job Submission: Отправка задания Spark {0}: Get Application Id time out. {0}[Log] {1} Истекло время ожидания при получении идентификатора приложения. {0}[Журнал] {1} livyBatchId is invalid. Идентификатор livyBatchId является недопустимым. Property Path is not specified. Путь к свойству не указан. Parameters for SparkJobSubmissionModel is illegal Недопустимые параметры для SparkJobSubmissionModel Property localFilePath or hdfsFolderPath is not specified. Не указано свойство localFilePath или hdfsFolderPath. submissionArgs is invalid. Аргументы submissionArgs являются недопустимыми. No Spark job batch id is returned from response.{0}[Error] {1} Идентификатор пакета задания Spark не возвращен из ответа.{0}[Ошибка] {1} No log is returned within response.{0}[Error] {1} Журнал не возвращен в ответе.{0}[Ошибка] {1} Error: {0}. Ошибка: {0}. Please provide the password to connect to the BDC Controller Укажите пароль для подключения к контроллеру BDC {0}Please provide the username to connect to the BDC Controller: {0}Укажите имя пользователя для подключения к контроллеру BDC: Username and password are required Необходимо указать имя пользователя и пароль Downloaded {0} Скачано {0} Downloading {0} Идет загрузка {0} ({0} KB) ({0} КБ) Downloading {0} Идет загрузка {0} Extracted {0} ({1}/{2}) Извлечено {0} ({1}/{2}) Failed to start {0} Не удалось запустить {0} Installed {0} Установлено: {0} Installing {0} to {1} Установка {0} в {1} Installing {0} Установка (0) {0} Started {0} запущен Starting {0} Запуск (0) New Table Создать таблицу No Нет Do you want to reduce the table designer load time by enabling the database model preloading? The database model will be preloaded when you expand the database node in object explorer. Хотите сократить время загрузки конструктора таблиц, включив предварительную загрузку модели базы данных? Модель базы данных будет предварительно загружена при развертывании узла базы данных в обозревателе объектов. Yes Да {0} component exited unexpectedly. Please restart Azure Data Studio. Компонент {0} неожиданно завершил работу. Перезапустите Azure Data Studio. View Known Issues Просмотреть известные проблемы Edition Выпуск Compatibility Level Уровень совместимости Owner Владелец Pricing Tier Ценовая категория Type Тип Version Версия Last backup Последняя архивация Name Имя Size (MB) Размер (МБ) Status Состояние Enable/disable default JSON formatter (requires restart) Включение или отключение модуля форматирования JSON по умолчанию (требуется перезагрузка) Associate schemas to JSON files in the current project Связь схем с JSON-файлами в текущем проекте An array of file patterns to match against when resolving JSON files to schemas. Массив шаблонов файлов, с которым выполняется сравнение, при разрешении JSON-файлов в схемах. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Шаблон файла, который может содержать "*" и с которым выполняется сравнение, при разрешении JSON-файлов в схемах. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Определение схемы для указанного URL-адреса. Схему необходимо указать только для того, чтобы не обращаться по URL-адресу схемы. A URL to a schema or a relative path to a schema in the current directory URL-адрес схемы или относительный путь к ней в текущем каталоге MSSQL configuration Конфигурация MSSQL Declares the application workload type when connecting to a server Объявляет тип рабочей нагрузки приложения при подключении к серверу Application intent Намерение приложения The name of the application Имя приложения Application name Имя приложения Attach DB filename Имя вложенного файла базы данных The name of the primary file, including the full path name, of an attachable database Имя первичного файла прикрепляемой базы данных, включая полный путь Attached DB file name Имя вложенного файла базы данных Azure Active Directory - Universal with MFA support Azure Active Directory — универсальный с поддержкой MFA Windows Authentication Проверка подлинности Windows. SQL Login Имя входа SQL Specifies the method of authenticating with SQL Server Указывает способ проверки подлинности в SQL Server Authentication type Тип проверки подлинности Enables or disables Always Encrypted for the connection Включает или отключает Always Encrypted для подключения Always Encrypted Always Encrypted Number of attempts to restore connection Число попыток восстановления подключения Connect retry count Счетчик повторных попыток для подключения Delay between attempts to restore connection Задержка между попытками восстановления подключения Connect retry interval Интервал повторных попыток подключения The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Длительность (в секундах) ожидания при подключении к серверу, после чего попытка прекращается и выводится ошибка Connect timeout Истекло время ожидания подключения Custom name of the connection Настраиваемое имя подключения Name (optional) Имя (необязательно) When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Если задано значение TRUE, указывает, что подключение должно быть произведено в контексте SQL Server. Доступно только при выполнении в процессе SQL Server. Context connection Контекстное подключение The SQL Server language record name Имя записи языка SQL Server Current language Текущий язык The name of the initial catalog or database int the data source Имя исходного каталога или базы данных в источнике данных Database База данных Azure Attestation Аттестация Azure Host Guardian Service Служба защиты узла Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves Задает протокол для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавами Attestation Protocol Протокол аттестации Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves Задает конечную точку для аттестации анклава на стороне сервера, используемого Always Encrypted с защищенным анклавами Enclave Attestation URL URL-адрес аттестации анклава When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Когда задано значение TRUE, SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером, если на сервере установлен сертификат Encrypt Шифровать The name or network address of the instance of SQL Server that acts as a failover partner Имя или сетевой адрес экземпляра SQL Server, выступающего в роли партнера по обеспечению отработки отказа Failover partner Партнер по обеспечению отработки отказа Advanced Дополнительно Connection Resiliency Устойчивость подключений Context Контекст Initialization Инициализация Pooling Объединение в пул Replication Репликация Security Безопасность Source Источник The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Минимальное время (в секундах), которое это подключение будет оставаться в пуле до уничтожения Load balance timeout Истекло время ожидания при балансировке нагрузки The maximum number of connections allowed in the pool Максимально допустимое число подключений в пуле Max pool size Максимальный размер пула The minimum number of connections allowed in the pool Минимально допустимое число подключений в пуле Min pool size Минимальный размер пула Multi subnet failover Отработка отказа в нескольких подсетях When true, multiple result sets can be returned and read from one connection Если задано значение TRUE, из одного подключения может быть возвращено и считано несколько результирующих наборов Multiple active result sets Множественные активные результирующие наборы Size in bytes of the network packets used to communicate with an instance of SQL Server Размер (в байтах) сетевых пакетов, которые используются для взаимодействия с экземпляром SQL Server Packet size Размер пакета Indicates the password to be used when connecting to the data source Указывает пароль, который необходимо использовать для подключения к источнику данных Password Пароль When false, security-sensitive information, such as the password, is not returned as part of the connection Если задано значение FALSE, то секретные данные (например, пароль) не возвращаются в составе подключения Persist security info Сохранение сведений о безопасности When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Если задано значение TRUE, объект соединения извлекается из соответствующего пула или при необходимости создается и добавляется в соответствующий пул Pooling Объединение в пул Port Порт Used by SQL Server in Replication Используется SQL Server при репликации Replication Репликация Name of the SQL Server instance Имя экземпляра SQL Server Server Сервер When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Когда задано значение TRUE (и encrypt=true), SQL Server использует шифрование SSL для всех данных, передаваемых между клиентом и сервером без проверки сертификата сервера Trust server certificate Доверять сертификату сервера Indicates which server type system the provider will expose through the DataReader Указывает серверную систему, доступ к которой поставщик будет предоставлять через DataReader Type system version Версия системы типов Indicates the user ID to be used when connecting to the data source Указывает идентификатор пользователя, который необходимо использовать для подключения к источнику данных User name Имя пользователя The name of the workstation connecting to SQL Server Имя рабочей станции, подключающейся к SQL Server Workstation Id Идентификатор рабочей станции Disabled Отключено Enabled Включено Highlights the execution plan operation with the greatest actual number of rows for all executions. Выделяет операцию плана выполнения с наибольшим фактическим числом строк для всех выполнений. Highlights the execution plan operation with the highest cost. Выделяет операцию плана выполнения с наибольшей ресурсоемкостью. The default metric to use to highlight an expensive operation in query execution plans Метрика по умолчанию, используемая для выделения ресурсоемкой операции в планах выполнения запросов. Highlights the execution plan operation that used the most CPU time. Выделяет операцию плана выполнения, использовавшую больше всего процессорного времени. Highlights the execution plan operation that took the most time. Выделяет операцию плана выполнения, занявшую больше всего времени. Expensive operation highlighting will be turned off for execution plans. Выделение ресурсоемких операций будет отключено для планов выполнения. Highlights the execution plan operation with the greatest number of rows read. Выделяет операцию плана выполнения с наибольшим количеством прочитанных строк. Highlights the execution plan operation with the highest subtree cost. Выделяет операцию плана выполнения с наибольшей ресурсоемкостью поддерева. Export Notebook as SQL Экспорт записной книжки в виде SQL Export SQL as Notebook Экспорт SQL в виде записной книжки Should column definitions be aligned? Должны ли определения столбцов быть выровнены? Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Следует ли форматировать типы данных в верхнем регистре, нижнем регистре или оставить без форматирования ("нет") Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Следует ли форматировать ключевые слова в верхнем регистре, нижнем регистре или оставить без форматирования ("нет") should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Следует ли ставить запятые в начале каждой инструкции в списке, например ", mycolumn2", а не в конце, например "mycolumn1," Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Нужно ли разделять на отдельные строки ссылки на объекты в выбранных инструкциях? Например, для "SELECT C1, C2 FROM T1" как C1, так и C2 будут находиться на отдельных строках [Optional] Do not show unsupported platform warnings [Необязательно] Не показывать предупреждения для неподдерживаемых платформ Should IntelliSense error checking be enabled Должна ли быть включена проверка ошибок IntelliSense Should IntelliSense be enabled Должен ли быть включен IntelliSense Should IntelliSense quick info be enabled Должны ли быть включены краткие сведения IntelliSense Should IntelliSense suggestions be enabled Должны ли быть включены подсказки IntelliSense Should IntelliSense suggestions be lowercase Следует ли подсказкам IntelliSense использовать строчные буквы [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Необязательно] Выведите выходные данные отладки в консоль (Вид -> Вывод), а затем выберите подходящий выходной канал в раскрывающемся списке Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Максимальное число старых файлов, удаляемых при запуске, с истекшим сроком mssql.logRetentionMinutes. Файлы, которые не были очищены из-за этого ограничения, очищаются при следующем запуске Azure Data Studio. Number of minutes to retain log files for backend services. Default is 1 week. Срок хранения файлов журналов (в минутах) для серверных служб. По умолчанию задана 1 неделя. [Experimental] Whether the requests to the SQL Tools Service should be handled in parallel. This is introduced to discover the issues there might be when handling all requests in parallel. The default value is false. Relaunch of ADS is required when the value is changed. [Experimental] Следует ли обрабатывать запросы к службе SQL Tools Service одновременно. Этот параметр введен для обнаружения проблем, которые могут возникнуть при параллельной обработке всех запросов. Значение по умолчанию — false. При изменении значения требуется перезапуск ADS. Microsoft SQL Server Microsoft SQL Server Enable Parameterization for Always Encrypted Включить параметризацию для Always Encrypted Enable SET ANSI_DEFAULTS Установить параметр SET ANSI_DEFAULTS Enable SET ANSI_NULL_DFLT_ON Установить параметр SET ANSI_NULL_DFLT_ON Enable SET ANSI_NULLS Установить параметр SET ANSI_NULLS Enable SET ANSI_PADDING Установить параметр SET ANSI_PADDING Enable SET ANSI_WARNINGS Установить параметр SET ANSI_WARNINGS Enable SET ARITHABORT option Установить параметр SET ARITHABORT Enable SET CURSOR_CLOSE_ON_COMMIT Установить параметр SET CURSOR_CLOSE_ON_COMMIT Enable SET DEADLOCK_PRIORITY option Установить параметр SET DEADLOCK_PRIORITY Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' Нужно ли отображать столбцы BIT как числа (1 или 0)? Если задано значение FALSE, столбцы BIT будут отображаться как "TRUE" или "FALSE" An execution time-out of 0 indicates an unlimited wait (no time-out) Время ожидания выполнения, равное 0, указывает на неограниченное время ожидания Enable SET IMPLICIT_TRANSACTIONS Установить параметр SET IMPLICIT_TRANSACTIONS Enable SET LOCK TIMEOUT option (in milliseconds) Установить параметр SET LOCK TIMEOUT (в миллисекундах) Maximum number of characters/bytes to store for each value in character/binary columns after running a query. Default value: 65,535. Valid value range: 1 to 2,147,483,647. Максимальное сохраняемое количество символов/байт для каждого значения в символьных/двоичных столбцах после выполнения запроса. Значение по умолчанию: 65 535. Допустимый диапазон значений: от 1 до 2 147 483 647. Maximum number of characters to store for each value in XML columns after running a query. Default value: 2,097,152. Valid value range: 1 to 2,147,483,647. Максимальное сохраняемое количество символов для каждого значения в столбцах XML после выполнения запроса. Значение по умолчанию: 2 097 152. Допустимый диапазон значений: от 1 до 2 147 483 647. Enable SET NOCOUNT option Установить параметр SET NOCOUNT Enable SET NOEXEC option Установить параметр SET NOEXEC Enable SET PARSEONLY option Установить параметр SET PARSEONLY Enable SET QUERY_GOVERNOR_COST_LIMIT Установить параметр SET QUERY_GOVERNOR_COST_LIMIT Enable SET QUOTED_IDENTIFIER Установить параметр SET QUOTED_IDENTIFIER Maximum number of rows to return before the server stops processing your query. Максимальное число строк, которые будут возвращены перед тем, как сервер перестанет обрабатывать ваш запрос. Enable SET STATISTICS IO option Установить параметр SET STATISTICS IO Enable SET STATISTICS TIME option Установить параметр SET STATISTICS TIME Maximum size of text and ntext data returned from a SELECT statement Максимальный размер текста и данных ntext, возвращаемых инструкцией SELECT Enable SET TRANSACTION ISOLATION LEVEL option Установить параметр SET TRANSACTION ISOLATION LEVEL Enable SET XACT_ABORT ON option Установить параметр SET XACT_ABORT ON Whether to preload the database model when the database node in the object explorer is expanded. When enabled, the loading time of table designer can be reduced. Note: You might see higher than normal memory usage if you need to expand a lot of database nodes. Следует ли предварительно загружать модель базы данных при расширении узла базы данных в проводнике объектов. При включении время загрузки конструктора таблиц может быть уменьшено. Примечание. Если вам нужно расширить множество узлов базы данных, использование памяти может быть выше обычного. [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Необязательно] Уровень ведения журнала для серверных служб. Azure Data Studio создает имя файла при каждом запуске, а если такой файл уже существует, записи журналов добавляются в него. Для очистки старых файлов журналов см. описание параметров logRetentionMinutes и logFilesRemovalLimit. Параметр tracingLevel по умолчанию регистрирует не слишком многое. Изменение детализации может привести к тому, что журналы будут занимать слишком много места. Ошибка включает критический уровень, предупреждение включает ошибку, информационный уровень включает предупреждение, а подробный уровень включает информационный уровень. Copy Path Скопировать путь Delete Удалить Manage Access Управление доступом New directory Создать каталог Preview Предварительная версия Save Сохранить Upload files Отправить файлы New Notebook Создать записную книжку Open Notebook Открыть записную книжку Name Имя Compatibility Level Уровень совместимости Last Database Backup Последнее резервное копирование базы данных Last Log Backup Последняя резервная копия журнала Owner Владелец Recovery Model Модель восстановления Computer Name Имя компьютера OS Version Версия ОС Edition Выпуск Version Версия Tasks and information about your SQL Server Big Data Cluster Задачи и сведения о вашем кластере больших данных SQL Server SQL Server Big Data Cluster Кластер больших данных SQL Server Notebooks Записные книжки Search: Clear Search Server Results Поиск: очистить результаты поиска сервера Configure Python for Notebooks Настройка Python для Записных книжек Design Конструктор Service Endpoints Конечные точки службы Install Packages Установка пакетов New Spark Job Создать задание Spark New Table Создать таблицу Cluster Dashboard Панель мониторинга кластера View Spark History Просмотреть журнал Spark View Yarn History Просмотреть журнал YARN Search: Servers Поиск: серверы Show Log File Показать файл журнала Submit Spark Job Отправить задание Spark Tasks Задачи