Copy コピー Application Proxy アプリケーション プロキシ Cluster Management Service クラスター管理サービス Gateway to access HDFS files, Spark HDFS ファイルにアクセスするためのゲートウェイ、Spark Metrics Dashboard メトリック ダッシュボード Log Search Dashboard ログ検索ダッシュボード Proxy for running Spark statements, jobs, applications Spark ステートメント、ジョブ、アプリケーションを実行するためのプロキシ Management Proxy 管理プロキシ Management Proxy 管理プロキシ Spark Jobs Management and Monitoring Dashboard Spark ジョブの管理と監視ダッシュボード SQL Server Master Instance Front-End SQL Server マスター インスタンス フロントエンド HDFS File System Proxy HDFS ファイル システム プロキシ Spark Diagnostics and Monitoring Dashboard Spark 診断と監視ダッシュボード Metrics Dashboard メトリック ダッシュボード Log Search Dashboard ログ検索ダッシュボード Spark Jobs Management and Monitoring Dashboard Spark ジョブの管理と監視ダッシュボード Spark Diagnostics and Monitoring Dashboard Spark 診断と監視ダッシュボード Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio では、Always Encrypted の列マスター キーにアクセスするために Azure Key Vault に接続する必要がありますが、リンクされた Azure アカウントが選択されていません。クエリを再試行して、メッセージが表示されたら、リンクされた Azure アカウントを選択してください。 Please select a linked Azure account: リンクされた Azure アカウントを選択してください: The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. {0} に構成された Azure アカウントには、Always Encrypted の列マスターキーにアクセスするための Azure Key Vault の十分なアクセス許可がありません。 Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio では、Always Encrypted の列マスター キーにアクセスするために Azure Key Vault に接続する必要がありますが、リンクされた Azure アカウントがありません。リンクされた Azure アカウントを追加して、クエリを再試行してください。 Error applying permission changes: {0} アクセス許可の変更の適用でエラーが発生しました: {0} Applying permission changes to '{0}'. アクセス許可の変更を '{0}' に適用しています。 Applying permission changes recursively under '{0}' アクセス許可の変更を '{0}' に再帰的に適用しています Permission changes applied successfully. アクセス許可の変更が正常に適用されました。 Bad Request 無効な要求 Unauthorized 許可されていません Forbidden 禁止されています Not Found 見つかりません Internal Server Error 内部サーバー エラー Invalid Data Structure 無効なデータ構造 Unable to create WebHDFS client due to missing options: ${0} オプションが不足しているため、WebHDFS クライアントを作成できません: ${0} '${0}' is undefined. '${0}' は未定義です。 Unexpected Redirect 予期しないリダイレクト Unknown Error 不明なエラー Node Command called without any node passed ノードが渡されずに呼び出されたノード コマンド Access アクセス Add 追加 Add User or Group ユーザーまたはグループの追加 Apply 適用 Apply Recursively 再帰的に適用 Default 既定 Default User and Groups 既定のユーザーとグループ Delete 削除 Enter name 名前の入力 Unexpected error occurred while applying changes : {0} 変更の適用中に予期しないエラーが発生しました: {0} Everyone else 他のすべてのユーザー Execute 実行 Group グループ Group グループ Inherit Defaults 既定値の継承 Location : 場所: Manage Access アクセスの管理 Named Users and Groups 名前付きユーザーとグループ Owner 所有者 - Owner - 所有者 - Owning Group - 所有グループ Permissions アクセス許可 Read 読み取り Sticky Bit スティッキー ビット User ユーザー User or Group Icon ユーザーまたはグループ アイコン Write 書き込み Please connect to the Spark cluster before View {0} History. {0} 履歴を表示する前に、Spark クラスターに接続してください。 Get Application Id Failed. {0} アプリケーション ID の取得に失敗しました。{0} Local file will be uploaded to HDFS. ローカル ファイルは HDFS にアップロードされます。 Local file {0} does not existed. ローカル ファイル {0} が存在しません。 No SQL Server Big Data Cluster found. SQL Server ビッグ データ クラスターが見つかりません。 Submitting job {0} ... ジョブ {0} を送信しています... Uploading file from local {0} to HDFS folder: {1} ローカル {0} から HDFS フォルダーへファイルをアップロードしています: {1} Spark History Url: {0} Spark 履歴 URL: {0} .......................... Submit Spark Job End ............................ .......................... Spark ジョブの送信終了 ............................ Spark Job Submission Failed. {0} Spark ジョブを送信できませんでした。{0} The Spark Job has been submitted. Spark ジョブが送信されました。 Upload file to cluster Failed. {0} ファイルをクラスターにアップロードできませんでした。{0} Upload file to cluster Succeeded! ファイルがクラスターに正常にアップロードされました。 YarnUI Url: {0} YarnUI URL: {0} This sample code loads the file into a data frame and shows the first 10 results. このサンプル コードは、ファイルをデータ フレームに読み込み、最初の 10 件の結果を示します。 An error occurred converting the SQL document to a Notebook. Error : {0} SQL ドキュメントをノートブックに変換中にエラーが発生しました。エラー: {0} An error occurred converting the Notebook document to SQL. Error : {0} ノートブック ドキュメントを SQL に変換中にエラーが発生しました。エラー: {0} Could not find the controller endpoint for this instance このインスタンスのコントローラー エンドポイントが見つかりませんでした Notebooks ノートブック Only .ipynb Notebooks are supported .ipynb ノートブックのみがサポートされています Stream operation canceled by the user ユーザーによって取り消されたストリーム操作 Cancel operation? 操作をキャンセルしますか? Cancel キャンセル Search Server Names サーバー名を検索 $(sync~spin) {0}... $(sync~spin) {0}... Some missing properties in connectionInfo.options: {0} connectionInfo.options で一部のプロパティが不足しています: {0} ConnectionInfo.options is undefined. ConnectionInfo.options が定義されていません。 ConnectionInfo is undefined. ConnectionInfo が定義されていません。 NOTICE: This file has been truncated at {0} for preview. 注意: このファイルはプレビュー用に {0} で切り詰められました。 The file has been truncated at {0} for preview. ファイルはプレビュー用に {0} で切り捨てられました。 All Files すべてのファイル Error on copying path: {0} パスのコピーでエラーが発生しました: {0} Error on deleting files: {0} ファイルの削除でエラーが発生しました: {0} Enter directory name ディレクトリ名を入力する Upload アップロード Creating directory ディレクトリを作成しています An unexpected error occurred while opening the Manage Access dialog: {0} [アクセスの管理] ダイアログを開いている間に予期しないエラーが発生しました: {0} Error on making directory: {0} ディレクトリの作成でエラーが発生しました: {0} Operation was canceled 操作が取り消されました Are you sure you want to delete this file? このファイルを削除しますか? Are you sure you want to delete this folder and its contents? 対象フォルダーとその内容を削除してもよろしいですか? Error on previewing file: {0} ファイルのプレビューでエラーが発生しました: {0} Generating preview プレビューを生成しています Save operation was canceled 保存操作は取り消されました Error on saving file: {0} ファイルの保存でエラーが発生しました: {0} Saving HDFS Files HDFS ファイルを保存しています Upload operation was canceled アップロード操作が取り消されました Error uploading files: {0} ファイルのアップロードでエラーが発生しました: {0} Uploading files to HDFS HDFS にファイルをアップロードしています Cannot delete a connection. Only subfolders and files can be deleted. 接続を削除できません。削除できるのはサブフォルダーとファイルのみです。 Error: {0} エラー: {0} HDFS HDFS Error notifying of node change: {0} ノード変更の通知でエラーが発生しました: {0} Please provide the password to connect to HDFS: HDFS に接続するためのパスワードを入力してください: Please provide the username to connect to HDFS: HDFS に接続するためのユーザー名を入力してください: Root ルート Session for node {0} does not exist ノード {0} のセッションが存在しません No いいえ Yes はい The selected server does not belong to a SQL Server Big Data Cluster 選択したサーバーが SQL Server ビッグ データ クラスターに属していません Select other SQL Server 他の SQL Server を選択する Error Get File Path: {0} ファイル パス取得エラー: {0} No SQL Server is selected. SQL Server が選択されていません。 Please select SQL Server with Big Data Cluster. ビッグ データ クラスターが含まれる SQL Server を選択してください。 ADVANCED 詳細 Reference Files 参照ファイル Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Executor 作業ディレクトリに配置されるファイル。ファイル パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってください Reference Jars Jar を参照する Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) Executor 作業ディレクトリに配置される Jar。Jar パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってください Reference py Files 参照 py ファイル Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Executor 作業ディレクトリに配置される Py ファイル。ファイル パスは HDFS パスにする必要があります。複数のパスはセミコロン (;) で区切ってください Configuration Values 構成値 List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Spark 構成値を含む名前値ペアの一覧。JSON 辞書としてエンコードされます。例: '{"name":"value", "name2":"value2"}'。 Driver Cores ドライバー コア Amount of CPU cores to allocate to the driver. ドライバーに割り当てる CPU コアの量。 Driver Memory ドライバーのメモリ Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. ドライバーに割り当てるメモリの量。値の一部として単位を指定します。たとえば 512 M や 2 G などです。 Executor Cores Executor のコア Amount of CPU cores to allocate to the executor. Executor に割り当てる CPU コアの量。 Executor Count Executor の数 Number of instances of the executor to run. 実行する Executor のインスタンスの数。 Executor Memory Executor のメモリ Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Executor に割り当てるメモリの量。値の一部として単位を指定します。たとえば 512 M や 2 G などです。 Queue Name キュー名 Name of the Spark queue to execute the session in. セッションを実行する Spark キューの名前。 Arguments 引数 Command line arguments used in your main class, multiple arguments should be split by space. メイン クラスで使用されるコマンド ライン引数。複数の引数を使うには、スペースで区切る必要があります。 Path to a .jar or .py file .jar ファイルまたは .py ファイルへのパス GENERAL 全般 The specified HDFS file does not exist. 指定された HDFS ファイルが存在しません。 {0} does not exist in Cluster or exception thrown. {0} がクラスターに存在しないか、例外がスローされました。 Job Name ジョブ名 Enter a name ... 名前の入力... The selected local file will be uploaded to HDFS: {0} 選択したローカル ファイルが HDFS にアップロードされます: {0} Main Class メイン クラス JAR/py File JAR/py ファイル Property JAR/py File is not specified. プロパティ JAR/py ファイルが指定されていません。 Property Job Name is not specified. プロパティ ジョブ名が指定されていません。 Property Main Class is not specified. プロパティ メイン クラスが指定されていません。 Error in locating the file due to Error: {0} 次のエラーが原因で、ファイルの検索でエラーが発生しました: {0} Spark Cluster Spark クラスター Select 選択 Cancel キャンセル Submit 送信 New Job 新しいジョブ Parameters for SparkJobSubmissionDialog is illegal SparkJobSubmissionDialog のパラメーターが無効です .......................... Submit Spark Job Start .......................... .......................... Spark ジョブの送信開始 .......................... {0} Spark Job Submission: {0} Spark ジョブの送信: Get Application Id time out. {0}[Log] {1} アプリケーション ID の取得タイムアウト。{0}[ログ] {1} livyBatchId is invalid. livyBatchId が無効です。 Property Path is not specified. プロパティ パスが指定されていません。 Parameters for SparkJobSubmissionModel is illegal SparkJobSubmissionModel のパラメーターが無効です Property localFilePath or hdfsFolderPath is not specified. プロパティ localFilePath または hdfsFolderPath が指定されていません。 submissionArgs is invalid. submissionArgs が無効です。 No Spark job batch id is returned from response.{0}[Error] {1} 応答から Spark ジョブ バッチ ID は返されません。{0}[エラー]{1} No log is returned within response.{0}[Error] {1} 応答で返されたログはありません。{0}[エラー] {1} Error: {0}. エラー: {0}。 Please provide the password to connect to the BDC Controller BDC コントローラーに接続するためのパスワードを指定してください {0}Please provide the username to connect to the BDC Controller: {0}BDC コントローラーに接続するためのユーザー名を指定してください: Username and password are required ユーザー名とパスワードが必要です Done installing {0} {0} のインストールが完了しました Downloading {0} {0} のダウンロード中 ({0} KB) ({0} KB) Downloading {0} {0} のダウンロード中 Extracted {0} ({1}/{2}) {0} を抽出しました ({1}/{2}) Failed to start {0} {0} を開始できませんでした Installed {0} {0} がインストールされました Installing {0} to {1} {0} を {1} にインストールしています Installing {0} {0} のインストール中 {0} Started {0} が開始されました Starting {0} {0} の開始中 {0} component exited unexpectedly. Please restart Azure Data Studio. {0} コンポーネントが予期せず終了しました。Azure Data Studio を再起動してください。 View Known Issues 既知の問題の表示 Edition エディション Compatibility Level 互換性レベル Owner 所有者 Pricing Tier 価格レベル Type 種類 Version バージョン Last backup 前回のバックアップ Name 名前 Size (MB) サイズ (MB) Status 状態 Enable/disable default JSON formatter (requires restart) 既定の JSON フォーマッタを有効/無効にします (再起動が必要です) Associate schemas to JSON files in the current project スキーマを現在のプロジェクトの JSON ファイルに関連付けます An array of file patterns to match against when resolving JSON files to schemas. JSON ファイルをスキーマに解決するときに突き合わせるファイル パターンの配列です。 A file pattern that can contain '*' to match against when resolving JSON files to schemas. JSON ファイルをスキーマに解決するときに突き合わせる、'*' を含められるファイル パターンです。 The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. 指定された URL のスキーマ定義です。スキーマは、スキーマ URL へのアクセスを避けるためにのみ指定する必要があります。 A URL to a schema or a relative path to a schema in the current directory スキーマへの URL または現在のディレクトリ内のスキーマへの相対パス MSSQL configuration MSSQL 構成 Declares the application workload type when connecting to a server サーバーに接続するときにアプリケーションのワークロードの種類を宣言します Application intent アプリケーションの意図 The name of the application アプリケーションの名前 Application name アプリケーション名 When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider True の場合は、.Net Framework Data Provider の非同期機能を使用できるようになります Asynchronous processing 非同期処理 Attach DB filename 添付 DB ファイル名 The name of the primary file, including the full path name, of an attachable database 完全なパス名を含む、接続可能なデータベースのプライマリ ファイル名 Attached DB file name 添付された DB ファイルの名前 Azure Active Directory - Universal with MFA support Azure Active Directory - MFA サポート付きユニバーサル Windows Authentication Windows 認証 SQL Login SQL ログイン Specifies the method of authenticating with SQL Server SQL Server での認証方法を指定します Authentication type 認証の種類 Enables or disables Always Encrypted for the connection 接続の Always Encrypted を有効または無効にする Always Encrypted Always Encrypted Number of attempts to restore connection 接続を復元するための試行回数 Connect retry count 接続の再試行回数 Delay between attempts to restore connection 接続を復元するための試行間の遅延 Connect retry interval 接続の再試行間隔 The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error サーバーへの接続が確立されるまでに待機する時間 (秒)。この時間が経過すると接続要求を終了し、エラーを生成します Connect timeout 接続タイムアウト Custom name of the connection 接続のカスタム名 Name (optional) 名前 (省略可能) When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process True の場合は、接続元が SQL Server のコンテキストであることを示します。SQL Server のプロセスで実行する場合のみ使用できます Context connection コンテキスト接続 The SQL Server language record name SQL Server 言語レコード名 Current language 現在の言語 The name of the initial catalog or database int the data source データ ソース内の初期カタログまたはデータベースの名前 Database データベース Azure Attestation Azure Attestation Host Guardian Service ホスト ガーディアン サービス Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves セキュリティで保護されたエンクレーブが設定された Always Encrypted で使用されるサーバー側エンクレーブを構成証明するためのプロトコルを指定します。 Attestation Protocol 構成証明プロトコル Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves セキュリティで保護されたエンクレーブが設定された Always Encrypted で使用されるサーバー側エンクレーブを構成証明するためのエンドポイントを指定します。 Enclave Attestation URL エンクレーブ構成証明 URL When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed True の場合、SQL Server は、サーバーに証明書がインストールされている場合は、クライアントとサーバー間で送信されるすべてのデータに SSL 暗号化を使用します Encrypt 暗号化 The name or network address of the instance of SQL Server that acts as a failover partner フェールオーバー パートナーとして機能する SQL Server インスタンスの名前またはネットワーク アドレス Failover partner フェールオーバー パートナー Advanced 詳細設定 Connection Resiliency 接続の復元性 Context コンテキスト Initialization 初期化 Pooling プーリング Replication レプリケーション Security セキュリティ Source ソース The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed この接続が破棄される前にプールに存在する最小時間 (秒) Load balance timeout 負荷分散タイムアウト The maximum number of connections allowed in the pool プールに保持される接続の最大数 Max pool size 最大プール サイズ The minimum number of connections allowed in the pool プールに保持される接続の最小数 Min pool size 最小プール サイズ Multi subnet failover マルチ サブネット フェールオーバー When true, multiple result sets can be returned and read from one connection True の場合は、1 つの接続から複数の結果セットが返され、これらを読み取ることができます Multiple active result sets 複数のアクティブな結果セット Size in bytes of the network packets used to communicate with an instance of SQL Server SQL Server インスタンスとの通信に使用されるネットワーク パケットのサイズ (バイト) Packet size パケット サイズ Indicates the password to be used when connecting to the data source データ ソースへの接続時に使用するパスワードを示します Password パスワード When false, security-sensitive information, such as the password, is not returned as part of the connection False の場合、パスワードなどのセキュリティによる保護が要求される情報は、接続しても返されません Persist security info セキュリティ情報を保持する When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool True の場合、接続オブジェクトが適切なプールから取得されるか、または、必要に応じて接続オブジェクトが作成され、適切なプールに追加されます Pooling プーリング Port ポート Used by SQL Server in Replication レプリケーション時に SQL Server によって使用されます Replication レプリケーション Name of the SQL Server instance SQL Server インスタンスの名前 Server サーバー When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate True (および encrypt=true) の場合、SQL Server は、サーバー証明書を検証せずに、クライアントとサーバーの間で送信されるすべてのデータに対して SSL 暗号化を使用します Trust server certificate サーバー証明書を信頼する Indicates which server type system the provider will expose through the DataReader プロバイダーがデータ リーダー経由で公開するサーバーの種類のシステムを示します。 Type system version タイプ システムのバージョン Indicates the user ID to be used when connecting to the data source データ ソースへの接続時に使用するユーザー ID を示します User name ユーザー名 The name of the workstation connecting to SQL Server SQL Server に接続しているワークステーションの名前 Workstation Id ワークステーション ID Disabled 無効 Enabled 有効 Export Notebook as SQL ノートブックを SQL としてエクスポート Export SQL as Notebook SQL をノートブックとしてエクスポート Should column definitions be aligned? 列定義を揃えるかどうか Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) データ型を大文字、小文字、または 'なし' (元のまま) のいずれにフォーマットするか Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) キーワードを大文字、小文字、または 'なし' (元のまま) のいずれにフォーマットするか should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' コンマを、'mycolumn1,' のようにリスト内の各ステートメントの末尾に配置する代わりに ',mycolumn2' のように先頭に配置するかどうか Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines たとえば 'SELECT C1, C2 FROM T1' の場合に C1 と C2 を別々の行にするように、Select ステートメント内のオブジェクトへの参照を別々の行に分割するかどうか [Optional] Do not show unsupported platform warnings [省略可能] サポートされていないプラットフォームの警告を表示しない Should IntelliSense error checking be enabled IntelliSense エラー チェックを有効にするかどうか Should IntelliSense be enabled IntelliSense を有効にするかどうか Should IntelliSense quick info be enabled IntelliSense クイック ヒントを有効にするかどうか Should IntelliSense suggestions be enabled IntelliSense 提案を有効にするかどうか Should IntelliSense suggestions be lowercase IntelliSense 提案を小文字にするかどうか [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [省略可能] コンソールへのデバッグ出力をログに記録し ([表示] -> [出力])、ドロップダウンから適切な出力チャネルを選択します Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. mssql.logRetentionMinutes の有効期限が切れた、起動時に削除する古いファイルの最大数。この制限のためにクリーンアップされないファイルは、Azure Data Studio の次回の起動時にクリーンアップされます。 Number of minutes to retain log files for backend services. Default is 1 week. バックエンド サービスのログ ファイルを保持する分単位の時間。既定値は 1 週間です。 Microsoft SQL Server Microsoft SQL Server Enable Parameterization for Always Encrypted Always Encrypted のパラメーター化を有効にする Enable SET ANSI_DEFAULTS SET ANSI_DEFAULTS を有効にする Enable SET ANSI_NULL_DFLT_ON SET ANSI_NULL_DFLT_ON を有効にする Enable SET ANSI_NULLS SET ANSI_NULLS を有効にする Enable SET ANSI_PADDING SET ANSI_PADDING を有効にする Enable SET ANSI_WARNINGS SET ANSI_WARNINGS を有効にする Enable SET ARITHABORT option SET ARITHABORT オプションを有効にする Enable SET CURSOR_CLOSE_ON_COMMIT SET CURSOR_CLOSE_ON_COMMIT を有効にする Enable SET DEADLOCK_PRIORITY option SET DEADLOCK_PRIORITY オプションを有効にする Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' ビット列を数値 (1 または 0) として表示するかどうか。False の場合、ビット列は 'true' または 'false' として表示されます An execution time-out of 0 indicates an unlimited wait (no time-out) 実行タイムアウトが 0 の場合は、無制限の待機 (タイムアウトなし) を示します Enable SET IMPLICIT_TRANSACTIONS SET IMPLICIT_TRANSACTIONS を有効にする Enable SET LOCK TIMEOUT option (in milliseconds) SET LOCK TIMEOUT オプションを有効にする (ミリ秒単位) Number of XML characters to store after running a query クエリの実行後に格納する XML 文字の数 Enable SET NOCOUNT option SET NOCOUNT オプションを有効にする Enable SET NOEXEC option SET NOEXEC オプションを有効にする Enable SET PARSEONLY option SET PARSEONLY オプションを有効にする Enable SET QUERY_GOVERNOR_COST_LIMIT SET QUERY_GOVERNOR_COST_LIMIT を有効にする Enable SET QUOTED_IDENTIFIER SET QUOTED_IDENTIFIER を有効にする Maximum number of rows to return before the server stops processing your query. サーバーがクエリの処理を停止する前に返す行の最大数。 Enable SET STATISTICS IO option SET STATISTICS IO オプションを有効にする Enable SET STATISTICS TIME option SET STATISTICS TIME オプションを有効にする Maximum size of text and ntext data returned from a SELECT statement SELECT ステートメントから返されるテキストおよび ntext データの最大サイズ Enable SET TRANSACTION ISOLATION LEVEL option SET TRANSACTION ISOLATION LEVEL オプションを有効にする Enable SET XACT_ABORT ON option SET XACT_ABORT ON オプションを有効にする [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [省略可能] バックエンド サービスのログ レベル。Azure Data Studio は開始のたびにファイル名を生成し、そのファイルが既に存在する場合にはログ エントリが対象ファイルに追加されます。古いログ ファイルのクリーンアップについては、logRetentionMinutes と logFilesRemovalLimit の設定を参照してください。既定の tracingLevel では、ログに記録される数は多くありません。詳細レベルを変更すると、詳細なログが記録され、ログのためのディスク容量が必要になる場合があります。エラーには重大が含まれ、警告にはエラーが含まれ、情報には警告が含まれ、詳細には情報が含まれます Copy Path パスのコピー Delete 削除 Manage Access アクセスの管理 New directory 新しいディレクトリ Preview プレビュー Save 保存 Upload files ファイルのアップロード New Notebook 新しいノートブック Open Notebook ノートブックを開く Name 名前 Compatibility Level 互換性レベル Last Database Backup 前回のデータベース バックアップ Last Log Backup 最終ログ バックアップ Owner 所有者 Recovery Model 復旧モデル Computer Name コンピューター名 OS Version OS バージョン Edition エディション Version バージョン Tasks and information about your SQL Server Big Data Cluster SQL Server ビッグ データ クラスターに関するタスクと情報 SQL Server Big Data Cluster SQL Server ビッグ データ クラスター Notebooks ノートブック Search: Clear Search Server Results 検索: 検索サーバーの結果を消去する Configure Python for Notebooks ノートブック用 Python の構成 Design デザイン Service Endpoints サービス エンドポイント Install Packages パッケージのインストール New Spark Job 新しい Spark ジョブ New Table 新しいテーブル Cluster Dashboard クラスター ダッシュボード View Spark History Spark 履歴の表示 View Yarn History Yarn 履歴の表示 Search: Servers 検索: サーバー Show Log File ログ ファイルの表示 Submit Spark Job Spark ジョブの送信 Tasks タスク