Associate schemas to JSON files in the current projectスキーマを現在のプロジェクトの JSON ファイルに関連付けますA URL to a schema or a relative path to a schema in the current directoryスキーマへの URL または現在のディレクトリ内のスキーマへの相対パスAn array of file patterns to match against when resolving JSON files to schemas.JSON ファイルをスキーマに解決するときに突き合わせるファイル パターンの配列です。A file pattern that can contain '*' to match against when resolving JSON files to schemas.JSON ファイルをスキーマに解決するときに突き合わせる、'*' を含められるファイル パターンです。The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.指定された URL のスキーマ定義です。スキーマは、スキーマ URL へのアクセスを避けるためにのみ指定する必要があります。Enable/disable default JSON formatter (requires restart)既定の JSON フォーマッタを有効/無効にします (再起動が必要です)Upload filesファイルのアップロードNew directory新しいディレクトリDelete削除PreviewプレビューSave保存Copy PathパスのコピーManage Accessアクセスの管理New Notebook新しいノートブックOpen Notebookノートブックを開くTasks and information about your SQL Server Big Data ClusterSQL Server ビッグ データ クラスターに関するタスクと情報SQL Server Big Data ClusterSQL Server ビッグ データ クラスターSubmit Spark JobSpark ジョブの送信New Spark Job新しい Spark ジョブView Spark HistorySpark 履歴の表示View Yarn HistoryYarn 履歴の表示TasksタスクInstall PackagesパッケージのインストールConfigure Python for Notebooksノートブック用 Python の構成Cluster
Dashboardクラスター
ダッシュボードSearch: Servers検索: サーバーSearch: Clear Search Server Results検索: 検索サーバーの結果を消去するService Endpointsサービス エンドポイントNotebooksノートブックShow Log Fileログ ファイルの表示Disabled無効Enabled有効Export Notebook as SQLノートブックを SQL としてエクスポートExport SQL as NotebookSQL をノートブックとしてエクスポートMSSQL configurationMSSQL 構成Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'ビット列を数値 (1 または 0) として表示するかどうか。False の場合、ビット列は 'true' または 'false' として表示されますNumber of XML characters to store after running a queryクエリの実行後に格納する XML 文字の数Should column definitions be aligned?列定義を揃えるかどうかShould data types be formatted as UPPERCASE, lowercase, or none (not formatted)データ型を大文字、小文字、または 'なし' (元のまま) のいずれにフォーマットするかShould keywords be formatted as UPPERCASE, lowercase, or none (not formatted)キーワードを大文字、小文字、または 'なし' (元のまま) のいずれにフォーマットするかshould commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'コンマを、'mycolumn1,' のようにリスト内の各ステートメントの末尾に配置する代わりに ',mycolumn2' のように先頭に配置するかどうかShould references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesたとえば 'SELECT C1, C2 FROM T1' の場合に C1 と C2 を別々の行にするように、Select ステートメント内のオブジェクトへの参照を別々の行に分割するかどうか[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[省略可能] コンソールへのデバッグ出力をログに記録し ([表示] -> [出力])、ドロップダウンから適切な出力チャネルを選択します[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[省略可能] バックエンド サービスのログ レベル。Azure Data Studio は開始のたびにファイル名を生成し、そのファイルが既に存在する場合にはログ エントリが対象ファイルに追加されます。古いログ ファイルのクリーンアップについては、logRetentionMinutes と logFilesRemovalLimit の設定を参照してください。既定の tracingLevel では、ログに記録される数は多くありません。詳細レベルを変更すると、詳細なログが記録され、ログのためのディスク容量が必要になる場合があります。エラーには重大が含まれ、警告にはエラーが含まれ、情報には警告が含まれ、詳細には情報が含まれますNumber of minutes to retain log files for backend services. Default is 1 week.バックエンド サービスのログ ファイルを保持する分単位の時間。既定値は 1 週間です。Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.mssql.logRetentionMinutes の有効期限が切れた、起動時に削除する古いファイルの最大数。この制限のためにクリーンアップされないファイルは、Azure Data Studio の次回の起動時にクリーンアップされます。Should IntelliSense be enabledIntelliSense を有効にするかどうかShould IntelliSense error checking be enabledIntelliSense エラー チェックを有効にするかどうかShould IntelliSense suggestions be enabledIntelliSense 提案を有効にするかどうかShould IntelliSense quick info be enabledIntelliSense クイック ヒントを有効にするかどうかShould IntelliSense suggestions be lowercaseIntelliSense 提案を小文字にするかどうかMaximum number of rows to return before the server stops processing your query.サーバーがクエリの処理を停止する前に返す行の最大数。Maximum size of text and ntext data returned from a SELECT statementSELECT ステートメントから返されるテキストおよび ntext データの最大サイズAn execution time-out of 0 indicates an unlimited wait (no time-out)実行タイムアウトが 0 の場合は、無制限の待機 (タイムアウトなし) を示しますEnable SET NOCOUNT optionSET NOCOUNT オプションを有効にするEnable SET NOEXEC optionSET NOEXEC オプションを有効にするEnable SET PARSEONLY optionSET PARSEONLY オプションを有効にするEnable SET ARITHABORT optionSET ARITHABORT オプションを有効にするEnable SET STATISTICS TIME optionSET STATISTICS TIME オプションを有効にするEnable SET STATISTICS IO optionSET STATISTICS IO オプションを有効にするEnable SET XACT_ABORT ON optionSET XACT_ABORT ON オプションを有効にするEnable SET TRANSACTION ISOLATION LEVEL optionSET TRANSACTION ISOLATION LEVEL オプションを有効にするEnable SET DEADLOCK_PRIORITY optionSET DEADLOCK_PRIORITY オプションを有効にするEnable SET LOCK TIMEOUT option (in milliseconds)SET LOCK TIMEOUT オプションを有効にする (ミリ秒単位)Enable SET QUERY_GOVERNOR_COST_LIMITSET QUERY_GOVERNOR_COST_LIMIT を有効にするEnable SET ANSI_DEFAULTSSET ANSI_DEFAULTS を有効にするEnable SET QUOTED_IDENTIFIERSET QUOTED_IDENTIFIER を有効にするEnable SET ANSI_NULL_DFLT_ONSET ANSI_NULL_DFLT_ON を有効にするEnable SET IMPLICIT_TRANSACTIONSSET IMPLICIT_TRANSACTIONS を有効にするEnable SET CURSOR_CLOSE_ON_COMMITSET CURSOR_CLOSE_ON_COMMIT を有効にするEnable SET ANSI_PADDINGSET ANSI_PADDING を有効にするEnable SET ANSI_WARNINGSSET ANSI_WARNINGS を有効にするEnable SET ANSI_NULLSSET ANSI_NULLS を有効にするEnable Parameterization for Always EncryptedAlways Encrypted のパラメーター化を有効にする[Optional] Do not show unsupported platform warnings[省略可能] サポートされていないプラットフォームの警告を表示しないRecovery Model復旧モデルLast Database Backup前回のデータベース バックアップLast Log Backup最終ログ バックアップCompatibility Level互換性レベルOwner所有者VersionバージョンEditionエディションComputer Nameコンピューター名OS VersionOS バージョンEditionエディションPricing Tier価格レベルCompatibility Level互換性レベルOwner所有者VersionバージョンType種類Microsoft SQL ServerMicrosoft SQL ServerName (optional)名前 (省略可能)Custom name of the connection接続のカスタム名ServerサーバーName of the SQL Server instanceSQL Server インスタンスの名前DatabaseデータベースThe name of the initial catalog or database int the data sourceデータ ソース内の初期カタログまたはデータベースの名前Authentication type認証の種類Specifies the method of authenticating with SQL ServerSQL Server での認証方法を指定しますSQL LoginSQL ログインWindows AuthenticationWindows 認証Azure Active Directory - Universal with MFA supportAzure Active Directory - MFA サポート付きユニバーサルUser nameユーザー名Indicates the user ID to be used when connecting to the data sourceデータ ソースへの接続時に使用するユーザー ID を示しますPasswordパスワードIndicates the password to be used when connecting to the data sourceデータ ソースへの接続時に使用するパスワードを示しますApplication intentアプリケーションの意図Declares the application workload type when connecting to a serverサーバーに接続するときにアプリケーションのワークロードの種類を宣言しますAsynchronous processing非同期処理When true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderTrue の場合は、.Net Framework Data Provider の非同期機能を使用できるようになりますConnect timeout接続タイムアウトThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorサーバーへの接続が確立されるまでに待機する時間 (秒)。この時間が経過すると接続要求を終了し、エラーを生成しますCurrent language現在の言語The SQL Server language record nameSQL Server 言語レコード名Always EncryptedAlways EncryptedEnables or disables Always Encrypted for the connection接続の Always Encrypted を有効または無効にするAttestation Protocol構成証明プロトコルSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesセキュリティで保護されたエンクレーブが設定された Always Encrypted で使用されるサーバー側エンクレーブを構成証明するためのプロトコルを指定します。Azure AttestationAzure AttestationHost Guardian Serviceホスト ガーディアン サービスEnclave Attestation URLエンクレーブ構成証明 URLSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesセキュリティで保護されたエンクレーブが設定された Always Encrypted で使用されるサーバー側エンクレーブを構成証明するためのエンドポイントを指定します。Encrypt暗号化When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedTrue の場合、SQL Server は、サーバーに証明書がインストールされている場合は、クライアントとサーバー間で送信されるすべてのデータに SSL 暗号化を使用しますPersist security infoセキュリティ情報を保持するWhen false, security-sensitive information, such as the password, is not returned as part of the connectionFalse の場合、パスワードなどのセキュリティによる保護が要求される情報は、接続しても返されませんTrust server certificateサーバー証明書を信頼するWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateTrue (および encrypt=true) の場合、SQL Server は、サーバー証明書を検証せずに、クライアントとサーバーの間で送信されるすべてのデータに対して SSL 暗号化を使用しますAttached DB file name添付された DB ファイルの名前The name of the primary file, including the full path name, of an attachable database完全なパス名を含む、接続可能なデータベースのプライマリ ファイル名Context connectionコンテキスト接続When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processTrue の場合は、接続元が SQL Server のコンテキストであることを示します。SQL Server のプロセスで実行する場合のみ使用できますPortポートConnect retry count接続の再試行回数Number of attempts to restore connection接続を復元するための試行回数Connect retry interval接続の再試行間隔Delay between attempts to restore connection接続を復元するための試行間の遅延Application nameアプリケーション名The name of the applicationアプリケーションの名前Workstation Idワークステーション IDThe name of the workstation connecting to SQL ServerSQL Server に接続しているワークステーションの名前PoolingプーリングWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolTrue の場合、接続オブジェクトが適切なプールから取得されるか、または、必要に応じて接続オブジェクトが作成され、適切なプールに追加されますMax pool size最大プール サイズThe maximum number of connections allowed in the poolプールに保持される接続の最大数Min pool size最小プール サイズThe minimum number of connections allowed in the poolプールに保持される接続の最小数Load balance timeout負荷分散タイムアウトThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedこの接続が破棄される前にプールに存在する最小時間 (秒)ReplicationレプリケーションUsed by SQL Server in Replicationレプリケーション時に SQL Server によって使用されますAttach DB filename添付 DB ファイル名Failover partnerフェールオーバー パートナーThe name or network address of the instance of SQL Server that acts as a failover partnerフェールオーバー パートナーとして機能する SQL Server インスタンスの名前またはネットワーク アドレスMulti subnet failoverマルチ サブネット フェールオーバーMultiple active result sets複数のアクティブな結果セットWhen true, multiple result sets can be returned and read from one connectionTrue の場合は、1 つの接続から複数の結果セットが返され、これらを読み取ることができますPacket sizeパケット サイズSize in bytes of the network packets used to communicate with an instance of SQL ServerSQL Server インスタンスとの通信に使用されるネットワーク パケットのサイズ (バイト)Type system versionタイプ システムのバージョンIndicates which server type system the provider will expose through the DataReaderプロバイダーがデータ リーダー経由で公開するサーバーの種類のシステムを示します。Name名前Status状態Size (MB)サイズ (MB)Last backup前回のバックアップName名前Node Command called without any node passedノードが渡されずに呼び出されたノード コマンドManage Accessアクセスの管理Location : 場所: Permissionsアクセス許可 - Owner - 所有者Owner所有者Groupグループ - Owning Group - 所有グループEveryone else他のすべてのユーザーUserユーザーGroupグループAccessアクセスDefault既定Delete削除Sticky Bitスティッキー ビットInherit Defaults既定値の継承Read読み取りWrite書き込みExecute実行Add User or Groupユーザーまたはグループの追加Enter name名前の入力Add追加Named Users and Groups名前付きユーザーとグループDefault User and Groups既定のユーザーとグループUser or Group Iconユーザーまたはグループ アイコンApply適用Apply Recursively再帰的に適用Unexpected error occurred while applying changes : {0}変更の適用中に予期しないエラーが発生しました: {0}Local file will be uploaded to HDFS. ローカル ファイルは HDFS にアップロードされます。 .......................... Submit Spark Job End ...................................................... Spark ジョブの送信終了 ............................Uploading file from local {0} to HDFS folder: {1}ローカル {0} から HDFS フォルダーへファイルをアップロードしています: {1}Upload file to cluster Succeeded!ファイルがクラスターに正常にアップロードされました。Upload file to cluster Failed. {0}ファイルをクラスターにアップロードできませんでした。{0}Submitting job {0} ... ジョブ {0} を送信しています...The Spark Job has been submitted.Spark ジョブが送信されました。Spark Job Submission Failed. {0} Spark ジョブを送信できませんでした。{0} YarnUI Url: {0} YarnUI URL: {0} Spark History Url: {0} Spark 履歴 URL: {0} Get Application Id Failed. {0}アプリケーション ID の取得に失敗しました。{0}Local file {0} does not existed. ローカル ファイル {0} が存在しません。 No SQL Server Big Data Cluster found.SQL Server ビッグ データ クラスターが見つかりません。Please connect to the Spark cluster before View {0} History.{0} 履歴を表示する前に、Spark クラスターに接続してください。NOTICE: This file has been truncated at {0} for preview. 注意: このファイルはプレビュー用に {0} で切り詰められました。 The file has been truncated at {0} for preview.ファイルはプレビュー用に {0} で切り捨てられました。$(sync~spin) {0}...$(sync~spin) {0}...CancelキャンセルCancel operation?操作をキャンセルしますか?Search Server Namesサーバー名を検索No Spark job batch id is returned from response.{0}[Error] {1}応答から Spark ジョブ バッチ ID は返されません。{0}[エラー]{1}No log is returned within response.{0}[Error] {1}応答で返されたログはありません。{0}[エラー] {1}{0}Please provide the username to connect to the BDC Controller:{0}BDC コントローラーに接続するためのユーザー名を指定してください:Please provide the password to connect to the BDC ControllerBDC コントローラーに接続するためのパスワードを指定してくださいError: {0}. エラー: {0}。Username and password are requiredユーザー名とパスワードが必要ですAll FilesすべてのファイルUploadアップロードUploading files to HDFSHDFS にファイルをアップロードしていますUpload operation was canceledアップロード操作が取り消されましたError uploading files: {0}ファイルのアップロードでエラーが発生しました: {0}Creating directoryディレクトリを作成していますOperation was canceled操作が取り消されましたError on making directory: {0}ディレクトリの作成でエラーが発生しました: {0}Enter directory nameディレクトリ名を入力するError on deleting files: {0}ファイルの削除でエラーが発生しました: {0}Are you sure you want to delete this folder and its contents?対象フォルダーとその内容を削除してもよろしいですか?Are you sure you want to delete this file?このファイルを削除しますか?Saving HDFS FilesHDFS ファイルを保存していますSave operation was canceled保存操作は取り消されましたError on saving file: {0}ファイルの保存でエラーが発生しました: {0}Generating previewプレビューを生成していますError on previewing file: {0}ファイルのプレビューでエラーが発生しました: {0}Error on copying path: {0}パスのコピーでエラーが発生しました: {0}An unexpected error occurred while opening the Manage Access dialog: {0}[アクセスの管理] ダイアログを開いている間に予期しないエラーが発生しました: {0}Invalid Data Structure無効なデータ構造Unable to create WebHDFS client due to missing options: ${0}オプションが不足しているため、WebHDFS クライアントを作成できません: ${0}'${0}' is undefined.'${0}' は未定義です。Bad Request無効な要求Unauthorized許可されていませんForbidden禁止されていますNot Found見つかりませんInternal Server Error内部サーバー エラーUnknown Error不明なエラーUnexpected Redirect予期しないリダイレクトConnectionInfo is undefined.ConnectionInfo が定義されていません。ConnectionInfo.options is undefined.ConnectionInfo.options が定義されていません。Some missing properties in connectionInfo.options: {0}connectionInfo.options で一部のプロパティが不足しています: {0}View Known Issues既知の問題の表示{0} component exited unexpectedly. Please restart Azure Data Studio.{0} コンポーネントが予期せず終了しました。Azure Data Studio を再起動してください。This sample code loads the file into a data frame and shows the first 10 results.このサンプル コードは、ファイルをデータ フレームに読み込み、最初の 10 件の結果を示します。An error occurred converting the SQL document to a Notebook. Error : {0}SQL ドキュメントをノートブックに変換中にエラーが発生しました。エラー: {0}An error occurred converting the Notebook document to SQL. Error : {0}ノートブック ドキュメントを SQL に変換中にエラーが発生しました。エラー: {0}NotebooksノートブックOnly .ipynb Notebooks are supported.ipynb ノートブックのみがサポートされていますCould not find the controller endpoint for this instanceこのインスタンスのコントローラー エンドポイントが見つかりませんでしたApplying permission changes recursively under '{0}'アクセス許可の変更を '{0}' に再帰的に適用していますPermission changes applied successfully.アクセス許可の変更が正常に適用されました。Applying permission changes to '{0}'.アクセス許可の変更を '{0}' に適用しています。Error applying permission changes: {0}アクセス許可の変更の適用でエラーが発生しました: {0}YesはいNoいいえSelect other SQL Server他の SQL Server を選択するPlease select SQL Server with Big Data Cluster.ビッグ データ クラスターが含まれる SQL Server を選択してください。No SQL Server is selected.SQL Server が選択されていません。The selected server does not belong to a SQL Server Big Data Cluster選択したサーバーが SQL Server ビッグ データ クラスターに属していませんError Get File Path: {0}ファイル パス取得エラー: {0}Parameters for SparkJobSubmissionDialog is illegalSparkJobSubmissionDialog のパラメーターが無効ですNew Job新しいジョブCancelキャンセルSubmit送信{0} Spark Job Submission:{0} Spark ジョブの送信:.......................... Submit Spark Job Start .................................................... Spark ジョブの送信開始 ..........................Parameters for SparkJobSubmissionModel is illegalSparkJobSubmissionModel のパラメーターが無効ですsubmissionArgs is invalid. submissionArgs が無効です。 livyBatchId is invalid. livyBatchId が無効です。 Get Application Id time out. {0}[Log] {1}アプリケーション ID の取得タイムアウト。{0}[ログ] {1}Property localFilePath or hdfsFolderPath is not specified. プロパティ localFilePath または hdfsFolderPath が指定されていません。 Property Path is not specified. プロパティ パスが指定されていません。 GENERAL全般Enter a name ...名前の入力...Job Nameジョブ名Spark ClusterSpark クラスターPath to a .jar or .py file.jar ファイルまたは .py ファイルへのパスThe selected local file will be uploaded to HDFS: {0}選択したローカル ファイルが HDFS にアップロードされます: {0}JAR/py FileJAR/py ファイルMain Classメイン クラスArguments引数Command line arguments used in your main class, multiple arguments should be split by space.メイン クラスで使用されるコマンド ライン引数。複数の引数を使うには、スペースで区切る必要があります。Property Job Name is not specified.プロパティ ジョブ名が指定されていません。Property JAR/py File is not specified.プロパティ JAR/py ファイルが指定されていません。Property Main Class is not specified.プロパティ メイン クラスが指定されていません。{0} does not exist in Cluster or exception thrown. {0} がクラスターに存在しないか、例外がスローされました。 The specified HDFS file does not exist. 指定された HDFS ファイルが存在しません。 Select選択Error in locating the file due to Error: {0}次のエラーが原因で、ファイルの検索でエラーが発生しました: {0}ADVANCED詳細Reference JarsJar を参照するJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)Executor 作業ディレクトリに配置される Jar。Jar パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってくださいReference py Files参照 py ファイルPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Executor 作業ディレクトリに配置される Py ファイル。ファイル パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってくださいReference Files参照ファイルFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Executor 作業ディレクトリに配置されるファイル。ファイル パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってくださいDriver MemoryドライバーのメモリAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.ドライバーに割り当てるメモリの量。値の一部として単位を指定します。たとえば 512 M や 2 G などです。Driver Coresドライバー コアAmount of CPU cores to allocate to the driver.ドライバーに割り当てる CPU コアの量。Executor MemoryExecutor のメモリAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Executor に割り当てるメモリの量。値の一部として単位を指定します。たとえば 512 M や 2 G などです。Executor CoresExecutor のコアAmount of CPU cores to allocate to the executor.Executor に割り当てる CPU コアの量。Executor CountExecutor の数Number of instances of the executor to run.実行する Executor のインスタンスの数。Queue Nameキュー名Name of the Spark queue to execute the session in.セッションを実行する Spark キューの名前。Configuration Values構成値List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Spark 構成値を含む名前値ペアの一覧。JSON 辞書としてエンコードされます。例: '{"name":"value", "name2":"value2"}'。Please provide the username to connect to HDFS:HDFS に接続するためのユーザー名を入力してください:Please provide the password to connect to HDFS:HDFS に接続するためのパスワードを入力してください:Session for node {0} does not existノード {0} のセッションが存在しませんError notifying of node change: {0}ノード変更の通知でエラーが発生しました: {0}HDFSHDFSRootルートError: {0}エラー: {0}Cannot delete a connection. Only subfolders and files can be deleted.接続を削除できません。削除できるのはサブフォルダーとファイルのみです。Stream operation canceled by the userユーザーによって取り消されたストリーム操作Metrics Dashboardメトリック ダッシュボードLog Search Dashboardログ検索ダッシュボードSpark Jobs Management and Monitoring DashboardSpark ジョブの管理と監視ダッシュボードSpark Diagnostics and Monitoring DashboardSpark 診断と監視ダッシュボードCopyコピーApplication Proxyアプリケーション プロキシCluster Management Serviceクラスター管理サービスGateway to access HDFS files, SparkHDFS ファイルにアクセスするためのゲートウェイ、SparkManagement Proxy管理プロキシManagement Proxy管理プロキシSQL Server Master Instance Front-EndSQL Server マスター インスタンス フロントエンドMetrics Dashboardメトリック ダッシュボードLog Search Dashboardログ検索ダッシュボードSpark Diagnostics and Monitoring DashboardSpark 診断と監視ダッシュボードSpark Jobs Management and Monitoring DashboardSpark ジョブの管理と監視ダッシュボードHDFS File System ProxyHDFS ファイル システム プロキシProxy for running Spark statements, jobs, applicationsSpark ステートメント、ジョブ、アプリケーションを実行するためのプロキシ{0} Started{0} が開始されましたStarting {0}{0} の開始中Failed to start {0}{0} を開始できませんでしたInstalling {0} to {1}{0} を {1} にインストールしていますInstalling {0}{0} のインストール中Installed {0}{0} がインストールされましたDownloading {0}{0} のダウンロード中({0} KB)({0} KB)Downloading {0}{0} のダウンロード中Done installing {0}{0} のインストールが完了しましたExtracted {0} ({1}/{2}){0} を抽出しました ({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio では、Always Encrypted の列マスター キーにアクセスするために Azure Key Vault に接続する必要がありますが、リンクされた Azure アカウントがありません。リンクされた Azure アカウントを追加して、クエリを再試行してください。Please select a linked Azure account:リンクされた Azure アカウントを選択してください:Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio では、Always Encrypted の列マスター キーにアクセスするために Azure Key Vault に接続する必要がありますが、リンクされた Azure アカウントが選択されていません。クエリを再試行して、メッセージが表示されたら、リンクされた Azure アカウントを選択してください。The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.{0} に構成された Azure アカウントには、Always Encrypted の列マスターキーにアクセスするための Azure Key Vault の十分なアクセス許可がありません。