SQL Server Deployment extension for Azure Data StudioРасширение развертывания SQL Server для Azure Data StudioProvides a notebook-based experience to deploy Microsoft SQL ServerОбеспечивает развертывание Microsoft SQL Server на основе записных книжекDeploy SQL Server…Развернуть SQL Server…DeploymentРазвертываниеSQL Server container imageОбраз контейнера SQL ServerRun SQL Server container image with dockerЗапустить образ контейнера SQL Server с помощью DockerSQL Server Big Data ClusterКластер больших данных SQL ServerSQL Server Big Data Cluster allows you to deploy scalable clusters of SQL Server, Spark, and HDFS containers running on KubernetesКластер больших данных SQL Server позволяет развертывать масштабируемые кластеры контейнеров SQL Server, Spark и HDFS, работающие на базе KubernetesVersionВерсияSQL Server 2017SQL Server 2017SQL Server 2019 RCSQL Server 2019 RC./notebooks/docker/2017/deploy-sql2017-image.ipynb./notebooks/docker/2017/deploy-sql2017-image.ipynb./notebooks/docker/2019/deploy-sql2019-image.ipynb./notebooks/docker/2019/deploy-sql2019-image.ipynbSQL Server 2019 RCSQL Server 2019 RCDeployment targetЦелевой объект развертыванияNew Azure Kubernetes Service ClusterНовый кластер Службы Azure KubernetesExisting Azure Kubernetes Service ClusterСуществующий кластер Службы Azure KubernetesExisting Kubernetes Cluster (kubeadm)Существующий кластер Kubernetes (kubeadm)./notebooks/bdc/2019/deploy-bdc-aks.ipynb./notebooks/bdc/2019/deploy-bdc-aks.ipynb./notebooks/bdc/2019/deploy-bdc-existing-aks.ipynb./notebooks/bdc/2019/deploy-bdc-existing-aks.ipynb./notebooks/bdc/2019/deploy-bdc-existing-kubeadm.ipynb./notebooks/bdc/2019/deploy-bdc-existing-kubeadm.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-aks.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-aks.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-existing-aks.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-existing-aks.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-existing-kubeadm.ipynb./notebooks/bdc/2019/azdata/deploy-bdc-existing-kubeadm.ipynbDeploy SQL Server 2017 container images with dockerРазвернуть образы контейнера SQL Server 2017 с помощью DockerDeploy SQL Server 2019 container images with dockerРазвернуть образы контейнера SQL Server 2019 с помощью DockerContainer nameИмя контейнераSQL Server passwordПароль SQL ServerConfirm passwordПодтверждение пароляPortПортDeployment target: new AKS clusterЦель развертывания: новый кластер AKSDeployment target: existing AKS clusterЦель развертывания: существующий кластер AKSSQL Server Big Data Cluster settingsПараметры кластера больших данных SQL ServerCluster nameИмя кластераController usernameИмя пользователя контроллераPasswordПарольConfirm passwordПодтверждение пароляAzure settingsПараметры AzureSubscription idИдентификатор подпискиUse my default Azure subscriptionИспользовать мою подписку Azure по умолчаниюResource group nameИмя группы ресурсовRegionРегионAKS cluster nameИмя кластера AKSVM sizeРазмер виртуальной машиныVM countЧисло виртуальных машинDeployment target: existing Kubernetes cluster (kubeadm)Цель развертывания: существующий кластер Kubernetes (kubeadm)Storage class nameИмя класса храненияCapacity for data (GB)Емкость данных (ГБ)Capacity for logs (GB)Емкость для журналов (ГБ)SQL Server on WindowsSQL Server в WindowsRun SQL Server on Windows, select a version to get started.Запустите SQL Server в Windows, выберите версию для начала работы.I accept {0}, {1} and {2}.Я принимаю {0}, {1} и {2}.Microsoft Privacy StatementЗаявление о конфиденциальности Майкрософтazdata License TermsУсловия лицензии azdataSQL Server License TermsУсловия лицензии SQL ServerUnknown field type: "{0}"Неизвестный тип поля: "{0}"{0} doesn't meet the password complexity requirement. For more information: https://docs.microsoft.com/sql/relational-databases/security/password-policy{0} не соответствует требованиям к сложности пароля. Дополнительные сведения: https://docs.microsoft.com/sql/relational-databases/security/password-policy{0} doesn't match the confirmation password{0} не соответствует подтверждению пароляPlease fill out the required fields marked with red asterisks.Заполните обязательные поля, отмеченные красными звездочками.Invalid output received.Получены недопустимые выходные данные.Error retrieving version information.{0}Error: {1}{0}stdout: {2} Ошибка при извлечении информации о версии.{0}Ошибка: {1}{0}StdOut: {2}Open NotebookОткрыть записную книжкуFailed to load extension: {0}, Error detected in the resource type definition in package.json, check debug console for details.Сбой при загрузке расширения: {0}, обнаружена ошибка в определении типа ресурса в package.json, дополнительные сведения см. в консоли отладки.The resource type: {0} is not definedТип ресурса: {0} не определенThe notebook {0} does not existЗаписная книжка {0} не существуетDownload and launch installer, URL: {0}Скачайте и запустите установщик, URL-адрес: {0}Downloading from: {0}Идет скачивание из: {0}Successfully downloaded: {0}Скачано: {0}Launching: {0}Запуск: {0}Successfully launched: {0}Запущено: {0}Download failed, status code: {0}, message: {1}Ошибка при скачивании, код состояния: {0}, сообщение: {1}Save config filesСохранить файлы конфигурацииScript to NotebookСценарий для NotebookDeployРазвертываниеDeploy SQL Server Big Data Cluster "{0}"Развертывание кластера больших данных SQL Server "{0}"Connect to Master SQL ServerПодключение к основному серверу SQL ServerSuccessfully deployed SQL Server Big Data Cluster: {0}Развернут кластер больших данных SQL Server: {0}Failed to retrieve the endpoint list. {0}{1}Не удалось получить список конечных точек. {0}{1}Master SQL Server endpoint is not found.Основная конечная точка SQL Server не найдена.View error detailПросмотр сведений об ошибкеFailed to deploy SQL Server Big Data Cluster "{0}".Не удалось развернуть кластер больших данных SQL Server "{0}".An error occured launching the output notebook. {1}{2}.Ошибка при запуске записной книжки выходных данных. {1}{2}.Failed to deploy SQL Server Big Data Cluster and no output notebook was generated.Не удалось развернуть кластер больших данных SQL Server, и не была создана записная книжка с выходными данными.Save config filesСохранить файлы конфигурацииConfig files saved to {0}Файлы конфигурации сохранены в {0}Deploy SQL Server 2019 Big Data Cluster on a new AKS clusterРазвертывание кластера больших данных SQL Server 2019 в новом кластере AKSDeploy SQL Server 2019 Big Data Cluster on an existing AKS clusterРазвертывание кластера больших данных SQL Server 2019 в существующем кластере AKSDeploy SQL Server 2019 Big Data Cluster on an existing kubeadm clusterРазвернуть кластер больших данных SQL Server 2019 в существующем кластере kubeadmSummaryСводкаA browser window for logging to Azure will be opened during the SQL Server Big Data Cluster deployment.Окно браузера для входа в Azure будет открыто во время развертывания кластера больших данных SQL Server.Deployment targetЦелевой объект развертыванияKube configKube configCluster contextКонтекст кластераCluster settingsПараметры кластераDeployment profileПрофиль развертыванияCluster nameИмя кластераController usernameИмя пользователя контроллераAuthentication modeРежим проверки подлинностиActive DirectoryActive DirectoryBasicОбычныйOrganizational unitПодразделениеDomain controller FQDNsПолные доменные имена контроллеров доменаDomain DNS IP addressesIP-адреса DNS доменаDomain DNS nameDNS-имя доменаCluster admin groupГруппа администраторов кластераCluster usersПользователи кластераApp ownersВладельцы приложенийApp readersЧитатели приложенийService account usernameИмя пользователя учетной записи службыAzure settingsПараметры AzureSubscription idИдентификатор подпискиDefault Azure SubscriptionПодписка Azure по умолчаниюResource groupГруппа ресурсовLocationРасположениеAKS cluster nameИмя кластера AKSVM sizeРазмер виртуальной машиныVM countЧисло виртуальных машинScale settingsПараметры масштабированияSQL Server master instancesОсновные экземпляры SQL ServerCompute pool instancesЭкземпляры пула вычисленийData pool instancesЭкземпляры пула данныхSpark pool instancesЭкземпляры пула SparkStorage pool (HDFS) instancesЭкземпляры пула носителей (HDFS)(Spark included)(Включая Spark)Storage class for dataКласс хранения данныхClaim size for data (GB)Размер требования для данных (ГБ)Storage class for logsКласс хранения журналовClaim size for logs (GB)Размер требования для журналов (ГБ)ControllerКонтроллерStorage pool (HDFS)Пул носителей (HDFS)DataДанныеSQL Server MasterБаза данных master SQL ServerStorage settingsПараметры хранилищаSQL Server MasterБаза данных master SQL ServerGatewayШлюзApplication proxyПрокси приложенияManagement proxyПрокси-сервер управленияReadable secondaryДоступный для чтения дополнительныйEndpoint settingsПараметры конечной точкиError occured while closing the wizard: {0}, open 'Debugger Console' for more information.Ошибка при закрытии мастера: {0}, для получения дополнительных сведений откройте "Консоль отладчика".Azure settingsПараметры AzureConfigure the settings to create an Azure Kubernetes Service clusterНастройка параметров для создания кластера Службы Azure KubernetesSubscription idИдентификатор подпискиUse my default Azure subscriptionИспользовать мою подписку Azure по умолчаниюThe default subscription will be used if you leave this field blank.Если вы оставите это поле пустым, будет использоваться подписка по умолчанию.{0}{0}View available Azure subscriptionsПросмотр доступных подписок AzureNew resource group nameНовое имя группы ресурсовLocationРасположение{0}{0}View available Azure locationsПросмотр доступных расположений AzureAKS cluster nameИмя кластера AKSVM countЧисло виртуальных машинVM sizeРазмер виртуальной машины{0}{0}View available VM sizesПросмотр доступных размеров виртуальных машинCluster settingsПараметры кластераConfigure the SQL Server Big Data Cluster settingsНастройка параметров кластера больших данных SQL ServerCluster nameИмя кластераAdmin usernameИмя пользователя администратораThis username will be used for controller and SQL Server. Username for the gateway will be root.Это имя пользователя будет использоваться для контроллера и SQL Server. Имя пользователя для шлюза будет корнем.PasswordПарольThis password can be used to access the controller, SQL Server and gateway.Этот пароль можно использовать для доступа к контроллеру, серверу SQL Server и шлюзу.Confirm passwordПодтверждение пароляAuthentication modeРежим проверки подлинностиBasicОбычныйActive DirectoryActive DirectoryDocker settingsПараметры DockerRegistryРеестрRepositoryРепозиторийImage tagТег изображенияUsernameИмя пользователяPasswordПарольActive Directory settingsПараметры Active DirectoryOrganizational unitПодразделениеDistinguished name for the organizational unit. For example: OU=bdc,DC=contoso,DC=com.Различающееся имя подразделения. Например: OU=bdc,DC=contoso,DC=com.Domain controller FQDNsПолные доменные имена контроллеров доменаUse comma to separate the values.Используйте запятую для разделения значений.Fully qualified domain names for the domain controller. For example: DC1.CONTOSO.COM. Use comma to separate multiple FQDNs.Полные доменные имена для контроллера домена. Например: DC1.CONTOSO.COM. Используйте запятую для разделения нескольких полных доменных имен.Domain DNS IP addressesIP-адреса DNS доменаUse comma to separate the values.Используйте запятую для разделения значений.Domain DNS servers' IP Addresses. Use comma to separate multiple IP addresses.IP-адреса серверов DNS домена. Используйте запятую для разделения нескольких IP-адресов.Domain DNS nameDNS-имя доменаCluster admin groupГруппа администраторов кластераThe Active Directory group for cluster admin.Группа Active Directory для администратора кластера.Cluster usersПользователи кластераUse comma to separate the values.Используйте запятую для разделения значений.The Active Directory users/groups with cluster users role. Use comma to separate multiple users/groups.Пользователи/группы Active Directory с ролью пользователей кластера. Используйте запятую для разделения нескольких пользователей/групп.Service account usernameИмя пользователя учетной записи службыDomain service account for Big Data ClusterУчетная запись службы домена для кластера больших данныхService account passwordПароль учетной записи службыApp ownersВладельцы приложенийUse comma to separate the values.Используйте запятую для разделения значений.The Active Directory users or groups with app owners role. Use comma to separate multiple users/groups.Пользователи или группы Active Directory с ролью владельцев приложений. Используйте запятую для разделения нескольких пользователей/групп.App readersЧитатели приложенийUse comma to separate the values.Используйте запятую для разделения значений.The Active Directory users or groups of app readers. Use comma as separator them if there are multiple users/groups.Пользователи Active Directory или группы читателей приложений. Используйте запятую в качестве разделителя при наличии нескольких пользователей/групп.PasswordПарольThere are some errors on this page, click 'Show Details' to view the errors.На этой странице есть ошибки, для их просмотра щелкните "Показать сведения".Service settingsПараметры службыScale settingsПараметры масштабированияSQL Server master instancesОсновные экземпляры SQL ServerCompute pool instancesЭкземпляры пула вычисленийData pool instancesЭкземпляры пула данныхSpark pool instancesЭкземпляры пула SparkStorage pool (HDFS) instancesЭкземпляры пула носителей (HDFS)Include Spark in storage poolВключить Spark в пул носителейUse controller settingsИспользовать параметры контроллераStorage class for dataКласс хранения данныхClaim size for data (GB)Размер требования для данных (ГБ)Storage class for logsКласс хранения журналовClaim size for logs (GB)Размер требования для журналов (ГБ)ControllerКонтроллерBy default Controller storage settings will be applied to other services as well, you can expand the advanced storage settings to configure storage for other services.По умолчанию параметры хранилища контроллера будут применены и к другим службам, вы можете развернуть расширенные параметры хранилища, чтобы настроить его для других служб.Advanced storage settingsРасширенные параметры хранилищаStorage pool (HDFS)Пул носителей (HDFS)Data poolПул данныхSQL Server MasterБаза данных master SQL ServerStorage settingsПараметры хранилищаDNS nameDNS-имяPortПортController DNS nameDNS-имя контроллераController portПорт контроллераSQL Server Master DNS nameDNS-имя основного сервера SQL ServerSQL Server Master portПорт основного сервера SQL ServerGatewayШлюзGateway DNS nameDNS-имя шлюзаGateway portПорт шлюзаManagement proxyПрокси-сервер управленияManagement proxy DNS nameDNS-имя прокси-сервера управленияManagement proxy portПорт прокси-сервера управленияApplication proxyПрокси приложенияApplication proxy DNS nameDNS-имя прокси приложенияApplication proxy portПорт прокси приложенияReadable secondaryДоступный для чтения дополнительныйReadable secondary DNS nameДоступное для чтения дополнительное DNS-имяReadable secondary portДоступный для чтения дополнительный портEndpoint settingsПараметры конечной точкиInvalid Spark configuration, you must check the 'Include Spark' checkbox or set the 'Spark pool instances' to at least 1.Недопустимая конфигурация Spark, вам нужно установить флажок "Включить Spark" или задать для параметра "Экземпляры пула Spark" значение не меньше 1.Target cluster contextКонтекст целевого кластераSelect the kube config file and then select a cluster context from the listВыберите файл kube config, а затем контекст кластера из спискаPlease select a cluster context.Выберите контекст кластера.Kube config file pathПуть к файлу kube configBrowseОбзорCluster ContextsКонтексты кластераNo cluster information is found in the config file or an error ocurred while loading the config fileНе найдены сведения о кластере в файле конфигурации, либо при загрузке этого файла произошла ошибкаSelectВыбратьFailed to load the config fileНе удалось загрузить файл конфигурацииDeployment configuration templateШаблон конфигурации развертыванияSelect the target configuration templateВыберите шаблон целевой конфигурацииNote: The settings of the deployment profile can be customized in later steps.Примечание. Параметры профиля развертывания можно настроить в последующих шагах.Failed to load the deployment profiles: {0}Не удалось загрузить профили развертывания: {0}ServiceСлужбаInstancesЭкземплярыSQL Server MasterБаза данных master SQL ServerComputeВычислительныйDataДанныеHDFS + SparkHDFS + SparkStorage sizeРазмер хранилищаGB per InstanceГБ на экземплярData storageХранилище данныхLog storageХранилище журналовFeaturesФункцииBasic authenticationБазовая проверка подлинностиActive Directory authenticationПроверка подлинности Active DirectoryHigh AvailabilityВысокая доступностьPlease select a deployment profile.Выберите профиль развертывания.Provides the ability to package and run an application in isolated containersПозволяет упаковать и запустить приложение в изолированных контейнерахdockerDockerA command-line tool for managing Azure resourcesПрограмма командной строки для управления ресурсами AzureAzure CLIAzure CLIA command-line utility written in Python that enables cluster administrators to bootstrap and manage the Big Data Cluster via REST APIsПрограмма командной строки, написанная на Python, которая позволяет администраторам кластера осуществлять начальную загрузку кластера больших данных и управление им с помощью REST APIazdataazdataA command-line tool allows you to run commands against Kubernetes clustersПрограмма командной строки, позволяющее выполнять команды для кластеров KuberneteskubectlkubectlSelect the deployment optionsВыбор параметров развертыванияSelectВыбратьYou must agree to the license agreements in order to proceed.Вы должны принять условия этих лицензионных соглашений, чтобы продолжить.ToolИнструментDescriptionОписаниеInstalledУстановленVersionВерсияOptionsПараметрыRequired toolsНеобходимые инструментыNo tools requiredИнструменты не требуются{0}: {1}{0}: {1}Additional status information for tool: {0}. {1}Дополнительные сведения о состоянии для инструмента: {0}. {1}YesДаNoНетYou will need to restart Azure Data Studio if the tools are installed after Azure Data Studio is launched to pick up the updated PATH environment variable. You may find additional details in the debug console.Вам потребуется перезапустить Azure Data Studio, если эти инструменты устанавливаются после запуска Azure Data Studio, чтобы использовать обновленную переменную среды PATH. Дополнительные сведения см. в консоли отладки.Some required tools are not installed or do not meet the minimum version requirement.Некоторые необходимые инструменты не установлены или не отвечают требованиям к минимальной версии.