Associate schemas to JSON files in the current project スキーマを現在のプロジェクトの JSON ファイルに関連付けます A URL to a schema or a relative path to a schema in the current directory スキーマへの URL または現在のディレクトリのスキーマへの相対パス An array of file patterns to match against when resolving JSON files to schemas. JSON ファイルをスキーマに解決する場合に一致するファイル パターンの配列です。 A file pattern that can contain '*' to match against when resolving JSON files to schemas. JSON ファイルをスキーマに解決する場合に一致するよう '*' を含む可能性があるファイル パターンです。 The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. 指定された URL のスキーマ定義です。スキーマは、スキーマ URL へのアクセスを避けるためにのみ指定する必要があります。 Enable/disable default JSON formatter (requires restart) 既定の JSON フォーマッタを有効/無効にします (再起動が必要です) Upload files ファイルのアップロード New directory 新しいディレクトリ Delete 削除 Preview プレビュー Save 保存 Copy Path パスのコピー New Notebook 新しいノートブック Open Notebook ノートブックを開く Tasks and information about your SQL Server big data cluster SQL Server Big Data Cluster に関するタスクと情報 SQL Server big data cluster SQL Server のビッグ データ クラスター Submit Spark Job Spark ジョブの送信 New Spark Job 新しい Spark ジョブ View Spark History Spark 履歴の表示 View Yarn History Yarn 履歴を表示 Tasks タスク Install Packages パッケージのインストール Configure Python for Notebooks ノートブック用 Python の構成 Search: Servers 検索: サーバー Search: Clear Search Server Results 検索: 検索サーバーの結果を消去する Service Endpoints サービス エンドポイント MSSQL configuration MSSQL 構成 Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' ビット列を数値 (1 または 0) として表示しますか?False の場合、ビット列が 'true' または 'false' として表示されます。 Should column definitions be aligned? 列定義を揃えるか。 Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) データ型の書式を大文字、小文字、または [なし] (フォーマットされていない)のいずれかにフォーマットすべきか Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) キーワードの書式は大文字、小文字、または なし (フォーマットされていない) should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' コンマを、 'mycolumn1,'のようにリスト内の各ステートメントの末尾に配置する代わりに', mycolumn2'のように先頭に配置するか Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines 例えば 'SELECT C1, C2 FROM T1'の場合に C1 と C2 の両方を別々 の行にするように、Select ステートメント内のオブジェクトへの参照を別々の行に分割するか? [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [オプション] コンソールへのデバッグ出力 ([表示] -> [出力]) をログに記録し、ドロップダウンから適切な出力チャネルを選択します [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [オプション] バックエンド サービスのログ レベル。Azure Data Studio は開始のたびにファイル名を生成し、そのファイルが既に存在する場合にはログ エントリが対象ファイルに追加されます。古いログ ファイルのクリーンアップについては、logRetentionMinutes と logFilesRemovalLimit の設定を参照してください。既定の tracingLevel の場合、ログに記録される数が多くありません。詳細レベルを変更すると、詳細なログが記録され、ログのためのディスク容量が必要になる場合があります。重大を含むエラー、エラーを含む警告、警告を含む情報、情報を含む詳細です Number of minutes to retain log files for backend services. Default is 1 week. バックエンド サービスのログ ファイルを保持する分数。既定は 1 週間です。 Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. mssql.logRetentionMinutes の有効期限が切れた、起動時に削除する古いファイルの最大数。この制限のためにクリーンアップされないファイルは、Azure Data Studio の次回の起動時にクリーンアップされます。 [Optional] Do not show unsupported platform warnings [オプション] サポートされていないプラットフォームの警告を表示しない Recovery Model 復旧モデル Last Database Backup 前回のデータベース バックアップ Last Log Backup 最終ログ バックアップ Compatibility Level 互換性レベル Owner 所有者 Version バージョン Edition エディション Computer Name コンピューター名 OS Version OS バージョン Edition エディション Pricing Tier 価格レベル Compatibility Level 互換性レベル Owner 所有者 Version バージョン Type 種類 Microsoft SQL Server Microsoft SQL Server Name (optional) 名前 (オプション) Custom name of the connection 接続のカスタム名 Server サーバー Name of the SQL Server instance SQL Server インスタンスの名前 Database データベース The name of the initial catalog or database int the data source データ ソース内の初期カタログまたはデータベースの名前 Authentication type 認証の種類 Specifies the method of authenticating with SQL Server SQL Server での認証方法を指定します SQL Login SQL ログイン Windows Authentication Windows 認証 Azure Active Directory - Universal with MFA support Azure Active Directory - MFA サポート付きユニバーサル User name ユーザー名 Indicates the user ID to be used when connecting to the data source データ ソースへの接続時に使用するユーザー ID を示します Password パスワード Indicates the password to be used when connecting to the data source データ ソースへの接続時に使用するパスワードを示します。 Application intent アプリケーションの目的 Declares the application workload type when connecting to a server サーバーに接続するときにアプリケーションのワークロードの種類を宣言します Asynchronous processing 非同期処理 When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider True の場合は、.Net Framework データ プロバイダーの非同期機能を使用できるようになります Connect timeout 接続タイムアウト The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error サーバーへの接続が確立されるまでに待機する時間 (秒) です。この時間が経過すると接続要求を終了し、エラーを生成します Current language 現在の言語 The SQL Server language record name SQL Server Language レコード名 Column encryption 列暗号化 Default column encryption setting for all the commands on the connection 接続上のすべてのコマンドの既定の列暗号化設定 Encrypt 暗号化 When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed True の場合、SQL Server は、サーバーに証明書がインストールされている場合は、クライアントとサーバー間で送信されるすべてのデータに SSL 暗号化を使用します Persist security info セキュリティ情報を保持する When false, security-sensitive information, such as the password, is not returned as part of the connection False の場合、パスワードなどのセキュリティによる保護が要求される情報は、接続しても返されません Trust server certificate サーバー証明書を信頼する When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate True の場合 (および encrypt=true)、SQL Server では、サーバー証明書を検証せずにクライアントとサーバーの間で送信されるすべてのデータに対し、SSL 暗号化が使用されます Attached DB file name 接続された DB ファイル名 The name of the primary file, including the full path name, of an attachable database 完全なパス名を含む、接続可能なデータベースのプライマリ ファイル名 Context connection コンテキスト接続 When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process True の場合は、接続元が SQL Server のコンテキストであることを示します。SQL Server のプロセスで実行する場合のみ使用できます Port ポート Connect retry count 接続の再試行回数 Number of attempts to restore connection 接続を復元するための試行回数 Connect retry interval 接続の再試行間隔 Delay between attempts to restore connection 接続を復元するための試行間の遅延 Application name アプリケーション名 The name of the application アプリケーションの名前 Workstation Id ワークステーション ID The name of the workstation connecting to SQL Server SQL Server に接続しているワークステーションの名前 Pooling プーリング When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool True の場合、接続オブジェクトが適切なプールから取得されるか、または、必要に応じて接続オブジェクトが作成され、適切なプールに追加されます Max pool size 最大プール サイズ The maximum number of connections allowed in the pool プールに保持できる最大接続数 Min pool size 最小プール サイズ The minimum number of connections allowed in the pool プール内で行える接続の最小数 Load balance timeout 負荷分散タイムアウト The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed この接続が破棄される前にプールに存在する最小時間 (秒) Replication レプリケーション Used by SQL Server in Replication レプリケーション時に SQL Server によって使用されます Attach DB filename DB ファイル名の接続 Failover partner フェールオーバー パートナー The name or network address of the instance of SQL Server that acts as a failover partner フェールオーバー パートナーとして機能する SQL Server のインスタンスの名前かネットワーク アドレス Multi subnet failover マルチ サブネット フェールオーバー Multiple active result sets 複数のアクティブな結果セット When true, multiple result sets can be returned and read from one connection True の場合は、1 つの接続から複数の結果セットが返され、これらを読み取ることができます Packet size パケット サイズ Size in bytes of the network packets used to communicate with an instance of SQL Server SQL Server インスタンスとの通信に使用されるネットワーク パケットのバイト数 Type system version Type system version Indicates which server type system then provider will expose through the DataReader DataReader を通してプロバイダーが公開するサーバー タイプのシステムを示します No Spark job batch id is returned from response.{0}[Error] {1} 応答から Spark ジョブ バッチ ID は返されません。{0}[エラー]{1} No log is returned within response.{0}[Error] {1} 応答で返されたログはありません。{0}[エラー] {1} Parameters for SparkJobSubmissionModel is illegal SparkJobSubmissionModel のパラメーターが無効です submissionArgs is invalid. submissionArgs が無効です。 livyBatchId is invalid. livyBatchId が無効です。 Get Application Id time out. {0}[Log] {1} アプリケーション ID タイムアウトを取得します。{0}[ログ] {1} Property localFilePath or hdfsFolderPath is not specified. プロパティ localFilePath または hdfsFolderPath が指定されていません。 Property Path is not specified. プロパティ パスが指定されていません。 Parameters for SparkJobSubmissionDialog is illegal SparkJobSubmissionDialog のパラメーターが無効です New Job 新規ジョブ Cancel キャンセル Submit 送信 {0} Spark Job Submission: {0} Spark ジョブの送信: .......................... Submit Spark Job Start .......................... .......................... Spark ジョブの送信開始 .......................... GENERAL 全般 Enter a name ... 名前を入力します... Job Name ジョブ名 Spark Cluster Spark クラスター Path to a .jar or .py file .jar ファイルまたは .py ファイルへのパス The selected local file will be uploaded to HDFS: {0} 選択したローカル ファイルが HDFS にアップロードされます: {0} JAR/py File JAR/py ファイル Main Class メイン クラス Arguments 引数 Command line arguments used in your main class, multiple arguments should be split by space. メイン クラスで使用されるコマンド ライン引数で複数の引数を使うには、スペースで区切る必要があります。 Property Job Name is not specified. プロパティ ジョブ名が指定されていません。 Property JAR/py File is not specified. プロパティ JAR/py ファイルが指定されていません。 Property Main Class is not specified. プロパティ メイン クラスが指定されていません。 {0} does not exist in Cluster or exception thrown. {0} がクラスターに存在しないか、例外がスローされました。 The specified HDFS file does not exist. 指定された HDFS ファイルが存在しません。 Select 選択 Error in locating the file due to Error: {0} エラーが原因でファイルの検索でエラーが発生しました: {0} ADVANCED 詳細 Reference Jars Jar を参照する Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) 実行プログラム作業ディレクトリに配置される Jar。Jar パスは HDFS パスにする必要があります。複数のパスの場合、セミコロン (;) で区切らなければなりません Reference py Files 参照 py ファイル Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 実行プログラム作業ディレクトリに配置される Py ファイル。ファイル パスは HDFS パスにする必要があります。複数のパスの場合、セミコロン (;) で区切らなければなりません Reference Files 参照ファイル Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) 実行プログラム作業ディレクトリに配置されるファイル。ファイル パスは HDFS パスにする必要があります。複数のパスの場合、セミコロン (;) で区切らなければなりません Please select SQL Server with big data cluster. Big Data Cluster が含まれる SQL Server を選択してください。 No Sql Server is selected. SQL Server が選択されていません。 Error Get File Path: {0} ファイル パスの取得でエラーが発生しました: {0} ... Creating {0} ... {0} を作成しています Process exited with code {0} プロセスがコード {0} で終了しました Invalid Data Structure 無効なデータ構造 Unable to create WebHDFS client due to missing options: ${0} オプションが不足しているため、WebHDFS クライアントを作成できません: ${0} '${0}' is undefined. '${0}' は未定義です。 Bad Request 無効な要求 Unauthorized 許可されていません Forbidden 禁止 Not Found 見つかりません Internal Server Error 内部サーバー エラー Unknown Error 不明なエラー Unexpected Redirect 予期しないリダイレクト Please provide the password to connect to HDFS: HDFS に接続するためのパスワードを入力してください: Session for node {0} does not exist ノード {0} のセッションが存在しません Error notifying of node change: {0} ノード変更の通知でエラーが発生しました: {0} Root ルート HDFS Hdfs Error: {0} エラー: {0} Cannot delete a connection. Only subfolders and files can be deleted. 接続を削除できません。削除できるのはサブフォルダーとファイルのみです。 All Files すべてのファイル Upload アップロード Uploading files to HDFS HDFS にファイルをアップロードしています Upload operation was canceled アップロード操作が取り消されました Error uploading files: {0} ファイルのアップロードでエラーが発生しました: {0} Creating directory ディレクトリを作成しています Operation was canceled 操作が取り消されました Error on making directory: {0} ディレクトリの作成でエラーが発生しました: {0} Enter directory name ディレクトリ名を入力する Error on deleting files: {0} ファイルの削除でエラーが発生しました: {0} Are you sure you want to delete this folder and its contents? 対象フォルダとその内容を削除してもよろしいですか? Are you sure you want to delete this file? このファイルを削除しますか? Saving HDFS Files HDFS ファイルを保存しています Save operation was canceled 保存操作は取り消されました Error on saving file: {0} ファイルの保存でエラーが発生しました: {0} Generating preview プレビューを生成しています Error on previewing file: {0} ファイルのプレビューでエラーが発生しました: {0} Error on copying path: {0} パスのコピーでエラーが発生しました: {0} NOTICE: This file has been truncated at {0} for preview. 注意: このファイルはプレビュー用に {0} で切り詰められました。 The file has been truncated at {0} for preview. ファイルはプレビューのために {0} で切り捨てられました。 ConnectionInfo is undefined. ConnectionInfo が定義されていません。 ConnectionInfo.options is undefined. ConnectionInfo.options が定義されていません。 Some missing properties in connectionInfo.options: {0} connectionInfo.options で一部のプロパティが不足しています: {0} $(sync~spin) {0}... $(sync~spin) {0}... Cancel キャンセル Cancel operation? 操作をキャンセルしますか? Search Server Names サーバー名を検索 Stream operation canceled by the user ユーザーによって取り消されたストリーム操作 Yes はい No いいえ This sample code loads the file into a data frame and shows the first 10 results. このサンプル コードは、ファイルをデータ フレームに読み込み、最初の 10 件の結果を示します。 Metrics Dashboard メトリック ダッシュボード Log Search Dashboard ログ検索ダッシュボード Spark Job Monitoring Spark ジョブの監視 Spark Resource Management Spark リソース管理 Copy コピー Application Proxy アプリケーション プロキシ Cluster Management Service クラスター管理サービス HDFS and Spark HDFS および Spark Management Proxy 管理プロキシ Management Proxy 管理プロキシ Notebooks ノートブック Only .ipynb Notebooks are supported .ipynb ノートブックのみがサポートされています Unable to find the file specified 指定されたファイルが見つかりません Installing {0} service to {1} {0} サービスを {1} にインストールしています Installing Service サービスをインストールしています Installed インストール済み Downloading {0} {0} をダウンロードしています ({0} KB) ({0} KB) Downloading Service ダウンロード サービス Done! 完了 Node Command called without any node passed ノードが渡されずに呼び出されたノード コマンド Local file will be uploaded to HDFS. ローカル ファイルは HDFS にアップロードされます。 .......................... Submit Spark Job End ............................ .......................... Spark ジョブの送信終了 ............................ Uploading file from local {0} to HDFS folder: {1} ローカル {0} から HDFS フォルダーへファイルをアップロードしています: {1} Upload file to cluster Succeeded! クラスターにファイルが正常にアップロードされました。 Upload file to cluster Failed. {0} クラスターにファイルをアップロードできませんでした。{0} Submitting job {0} ... ジョブ {0} を送信しています... The Spark Job has been submitted. Spark ジョブが送信されました。 Spark Job Submission Failed. {0} Spark ジョブを送信できませんでした。{0} YarnUI Url: {0} YarnUI URL: {0} Spark History Url: {0} Spark 履歴 URL: {0} Get Application Id Failed. {0} アプリケーション ID の取得に失敗しました。{0} Local file {0} does not existed. ローカル ファイル {0} が存在しません。 No Sql Server big data cluster found. SQL Server Big Data Cluster が見つかりません。