Copy Kopieren Application Proxy Anwendungsproxy Cluster Management Service Clusterverwaltungsdienst Gateway to access HDFS files, Spark Gateway für den Zugriff auf HDFS-Dateien, Spark Metrics Dashboard Metrikdashboard Log Search Dashboard Dashboard für Protokollsuche Proxy for running Spark statements, jobs, applications Proxy zum Ausführen von Spark-Anweisungen, -Aufträgen und -Anwendungen Management Proxy Verwaltungsproxy Management Proxy Verwaltungsproxy Spark Jobs Management and Monitoring Dashboard Dashboard zum Verwalten und Überwachen von Spark-Aufträgen SQL Server Master Instance Front-End Front-End der SQL Server-Masterinstanz HDFS File System Proxy HDFS-Dateisystemproxy Spark Diagnostics and Monitoring Dashboard Dashboard zur Spark-Diagnose und -Überwachung Metrics Dashboard Metrikdashboard Log Search Dashboard Dashboard für Protokollsuche Spark Jobs Management and Monitoring Dashboard Dashboard zum Verwalten und Überwachen von Spark-Aufträgen Spark Diagnostics and Monitoring Dashboard Dashboard zur Spark-Diagnose und -Überwachung Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio muss Azure Key Vault kontaktieren, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen, aber es wurde kein verknüpftes Azure-Konto ausgewählt. Wiederholen Sie die Abfrage, und wählen Sie bei Aufforderung ein verknüpftes Azure-Konto aus. Please select a linked Azure account: Wählen Sie ein verknüpftes Azure-Konto aus: The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. Das konfigurierte Azure-Konto für "{0}" verfügt nicht über ausreichende Berechtigungen für Azure Key Vault, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen. Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio muss Azure Key Vault kontaktieren, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen, aber es ist kein verknüpftes Azure-Konto verfügbar. Fügen Sie ein verknüpftes Azure-Konto hinzu, und wiederholen Sie die Abfrage. Error applying permission changes: {0} Fehler beim Anwenden von Berechtigungsänderungen: {0} Applying permission changes to '{0}'. Die Berechtigungsänderungen werden auf "{0}" angewendet. Applying permission changes recursively under '{0}' Die Berechtigungsänderungen werden unter "{0}" rekursiv angewendet. Permission changes applied successfully. Die Berechtigungsänderungen wurden erfolgreich angewendet. Bad Request Fehlerhafte Anforderung. Unauthorized Nicht autorisiert Forbidden Unzulässig Not Found Nicht gefunden Internal Server Error Interner Serverfehler Invalid Data Structure Ungültige Datenstruktur. Unable to create WebHDFS client due to missing options: ${0} Der WebHDFS-Client kann aufgrund von fehlenden Optionen nicht erstellt werden: ${0} '${0}' is undefined. "${0}" ist nicht definiert. Unexpected Redirect Unerwartete Umleitung Unknown Error Unbekannter Fehler Node Command called without any node passed Es wurde ein Knotenbefehl aufgerufen, ohne dass ein Knoten übergeben wurde. Access Zugriff Add Hinzufügen Add User or Group Benutzer oder Gruppe hinzufügen Apply Anwenden Apply Recursively Rekursiv anwenden Default Standard Default User and Groups Standardbenutzer und -gruppen Delete Löschen Enter name Namen eingeben Unexpected error occurred while applying changes : {0} Unerwarteter Fehler beim Anwenden von Änderungen: {0} Everyone else Beliebige andere Person Execute Ausführen Group Gruppe Group Gruppe Inherit Defaults Standardwerte erben Location : Speicherort: Manage Access Zugriff verwalten Named Users and Groups Benannte Benutzer und Gruppen Owner Besitzer - Owner – Besitzer - Owning Group – Besitzergruppe Permissions Berechtigungen Read Lesen Sticky Bit Sticky Bit User Benutzer User or Group Icon Symbol für Benutzer oder Gruppe Write Schreiben Please connect to the Spark cluster before View {0} History. Stellen Sie eine Verbindung mit dem Spark-Cluster her, bevor Sie den Verlauf von "{0}" anzeigen. Get Application Id Failed. {0} Fehler beim Abrufen der Anwendungs-ID. {0} Local file will be uploaded to HDFS. Lokale Datei wird in HDFS hochgeladen. Local file {0} does not existed. Die lokale Datei "{0}" ist nicht vorhanden. No SQL Server Big Data Cluster found. Es wurde kein SQL Server-Big Data-Cluster gefunden. Submitting job {0} ... Der Auftrag "{0}" wird übermittelt... Uploading file from local {0} to HDFS folder: {1} Die Datei wird aus dem lokalen Ordner "{0}" in den HDFS-Ordner hochgeladen: {1} Spark History Url: {0} Spark-Verlaufs-URL: {0} .......................... Submit Spark Job End ............................ .......................... Ende der Spark-Auftragsübermittlung ............................ Spark Job Submission Failed. {0} Fehler bei der Spark-Auftragsübermittlung. {0} The Spark Job has been submitted. Der Spark-Auftrag wurde übermittelt. Upload file to cluster Failed. {0} Fehler beim Hochladen der Datei in den Cluster. {0} Upload file to cluster Succeeded! Die Datei wurde erfolgreich in den Cluster hochgeladen. YarnUI Url: {0} YarnUI-URL: {0} This sample code loads the file into a data frame and shows the first 10 results. Dieser Beispielcode lädt die Datei in einen Datenrahmen und zeigt die ersten 10 Ergebnisse an. An error occurred converting the SQL document to a Notebook. Error : {0} Fehler beim Konvertieren des SQL-Dokuments in ein Notebook: {0} An error occurred converting the Notebook document to SQL. Error : {0} Fehler beim Konvertieren des Notebook-Dokuments in SQL: {0} Could not find the controller endpoint for this instance Der Controllerendpunkt für diese Instanz wurde nicht gefunden. Notebooks Notebooks Only .ipynb Notebooks are supported Es werden nur IPYNB-Notebooks unterstützt. Stream operation canceled by the user Der Streamvorgang wurde vom Benutzer abgebrochen. Cancel operation? Vorgang abbrechen? Cancel Abbrechen Search Server Names Servernamen suchen $(sync~spin) {0}... $(sync~spin) {0}... Some missing properties in connectionInfo.options: {0} In "connectionInfo.options" fehlen einige Eigenschaften: {0} ConnectionInfo.options is undefined. "ConnectionInfo.options" ist nicht definiert. ConnectionInfo is undefined. "ConnectionInfo" ist nicht definiert. NOTICE: This file has been truncated at {0} for preview. HINWEIS: Diese Datei wurde zur Vorschau bei "{0}" abgeschnitten. The file has been truncated at {0} for preview. Die Datei wurde zur Vorschau bei "{0}" abgeschnitten. All Files Alle Dateien Error on copying path: {0} Fehler beim Kopieren des Pfads: {0} Error on deleting files: {0} Fehler beim Löschen von Dateien: {0} Enter directory name Verzeichnisnamen eingeben Upload Hochladen Creating directory Das Verzeichnis wird erstellt. An unexpected error occurred while opening the Manage Access dialog: {0} Unerwarteter Fehler beim Öffnen des Dialogfelds "Zugriff verwalten": {0} Error on making directory: {0} Fehler beim Erstellen des Verzeichnisses: {0} Operation was canceled Der Vorgang wurde abgebrochen. Are you sure you want to delete this file? Möchten Sie diese Datei löschen? Are you sure you want to delete this folder and its contents? Möchten Sie diesen Ordner und den zugehörigen Inhalt löschen? Error on previewing file: {0} Fehler bei der Vorschau der Datei: {0} Generating preview Die Vorschau wird generiert. Save operation was canceled Der Speichervorgang wurde abgebrochen. Error on saving file: {0} Fehler beim Speichern der Datei: {0} Saving HDFS Files Die HDFS-Dateien werden gespeichert. Upload operation was canceled Der Uploadvorgang wurde abgebrochen. Error uploading files: {0} Fehler beim Hochladen von Dateien: {0} Uploading files to HDFS Dateien werden in HDFS hochgeladen Cannot delete a connection. Only subfolders and files can be deleted. Eine Verbindung kann nicht gelöscht werden. Nur Unterordner und Dateien können gelöscht werden. Error: {0} Fehler: {0} HDFS HDFS Error notifying of node change: {0} Fehler bei Benachrichtigung über Knotenänderung: {0} Please provide the password to connect to HDFS: Geben Sie das Kennwort für die Verbindung mit HDFS an: Please provide the username to connect to HDFS: Geben Sie den Benutzernamen zum Herstellen einer Verbindung mit HDFS an: Root Stamm Session for node {0} does not exist Die Sitzung für den Knoten "{0}" ist nicht vorhanden. No Nein Yes Ja The selected server does not belong to a SQL Server Big Data Cluster Der ausgewählte Server gehört nicht zu einem SQL Server-Big Data-Cluster. Select other SQL Server Andere SQL Server-Instanz auswählen Error Get File Path: {0} Fehler beim Abrufen des Dateipfads: {0} No SQL Server is selected. Es ist keine SQL Server-Instanz ausgewählt. Please select SQL Server with Big Data Cluster. Wählen Sie SQL Server mit Big Data-Cluster aus. ADVANCED ERWEITERT Reference Files Referenzdateien Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Reference Jars JAR-Referenzdateien Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) JAR-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der JAR-Pfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Reference py Files PY-Referenzdateien Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) PY-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Configuration Values Konfigurationswerte List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Liste von Name-Wert-Paaren, die Spark-Konfigurationswerte enthalten. Als JSON-Wörterbuch codiert. Beispiel: '{"name":"wert", "name2":"wert2"}'. Driver Cores Treiberkerne Amount of CPU cores to allocate to the driver. Die Anzahl von CPU-Kernen, die dem Treiber zugeordnet werden sollen. Driver Memory Treiberarbeitsspeicher Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. Die Menge an Arbeitsspeicher, die dem Treiber zugeordnet werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel: 512M oder 2G. Executor Cores Executorkerne Amount of CPU cores to allocate to the executor. Die Anzahl von CPU-Kernen, die dem Executor zugeordnet werden sollen. Executor Count Anzahl von Executors Number of instances of the executor to run. Anzahl der auszuführenden Executorinstanzen. Executor Memory Executorspeicher Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Die Menge an Arbeitsspeicher, die dem Executor zugeordnet werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel: 512M oder 2G. Queue Name Warteschlangenname Name of the Spark queue to execute the session in. Name der Spark-Warteschlange, in der die Sitzung ausgeführt wird. Arguments Argumente Command line arguments used in your main class, multiple arguments should be split by space. Befehlszeilenargumente, die in Ihrer Hauptklasse verwendet werden. Mehrere Argumente müssen durch Leerzeichen voneinander getrennt werden. Path to a .jar or .py file Pfad zu einer JAR- oder PY-Datei GENERAL ALLGEMEIN The specified HDFS file does not exist. Die angegebene HDFS-Datei ist nicht vorhanden. {0} does not exist in Cluster or exception thrown. "{0}" ist nicht im Cluster vorhanden, oder es wurde eine Ausnahme ausgelöst. Job Name Auftragsname Enter a name ... Namen eingeben... The selected local file will be uploaded to HDFS: {0} Die ausgewählte lokale Datei wird in HDFS hochgeladen: {0} Main Class Hauptklasse JAR/py File JAR-/PY-Datei Property JAR/py File is not specified. Die JAR-/PY-Eigenschaftsdatei wurde nicht angegeben. Property Job Name is not specified. Der Eigenschaftsauftragsname wurde nicht angegeben. Property Main Class is not specified. Die Hauptklasse der Eigenschaft wurde nicht angegeben. Error in locating the file due to Error: {0} Fehler beim Suchen der Datei: {0} Spark Cluster Spark-Cluster Select Auswählen Cancel Abbrechen Submit Übermitteln New Job Neuer Auftrag Parameters for SparkJobSubmissionDialog is illegal Die Parameter für "SparkJobSubmissionDialog" sind ungültig. .......................... Submit Spark Job Start .......................... .......................... Start der Spark-Auftragsübermittlung .......................... {0} Spark Job Submission: {0} Spark-Auftragsübermittlung: Get Application Id time out. {0}[Log] {1} Timeout beim Abrufen der Anwendungs-ID. {0}[Protokoll] {1} livyBatchId is invalid. "livyBatchId" ist ungültig. Property Path is not specified. Der Eigenschaftspfad wurde nicht angegeben. Parameters for SparkJobSubmissionModel is illegal Die Parameter für "SparkJobSubmissionModel" sind ungültig. Property localFilePath or hdfsFolderPath is not specified. Die localFilePath- oder hdfsFolderPath-Eigenschaft wurde nicht angegeben. submissionArgs is invalid. "submissionArgs" ist ungültig. No Spark job batch id is returned from response.{0}[Error] {1} In der Antwort wurde keine Batch-ID für Spark-Aufträge zurückgegeben.{0}[Fehler] {1} No log is returned within response.{0}[Error] {1} Innerhalb der Antwort wird kein Protokoll zurückgegeben.{0}[Fehler] {1} Error: {0}. Fehler: {0}. Please provide the password to connect to the BDC Controller Geben Sie das Kennwort zum Herstellen einer Verbindung mit dem BDC-Controller an. {0}Please provide the username to connect to the BDC Controller: {0}Geben Sie den Benutzernamen zum Herstellen einer Verbindung mit dem BDC-Controller an: Username and password are required Benutzername und Kennwort sind erforderlich. Done installing {0} Die Installation von {0} wurde abgeschlossen. Downloading {0} "{0}" wird heruntergeladen. ({0} KB) ({0} KB) Downloading {0} "{0}" wird heruntergeladen. Extracted {0} ({1}/{2}) {0} extrahiert ({1}/{2}) Failed to start {0} Fehler beim Starten von "{0}". Installed {0} "{0}" wurde installiert. Installing {0} to {1} "{0}" wird in "{1}" installiert. Installing {0} "{0}" wird installiert. {0} Started "{0}" wurde gestartet. Starting {0} "{0}" wird gestartet. {0} component exited unexpectedly. Please restart Azure Data Studio. Die Komponente "{0}" wurde unerwartet beendet. Starten Sie Azure Data Studio neu. View Known Issues Bekannte Probleme anzeigen Edition Edition Compatibility Level Kompatibilitätsgrad Owner Besitzer Pricing Tier Tarif Type Typ Version Version Last backup Letzte Sicherung Name Name Size (MB) Größe (MB) Status Status Enable/disable default JSON formatter (requires restart) Standard-JSON-Formatierer aktivieren/deaktivieren (Neustart erforderlich) Associate schemas to JSON files in the current project Hiermit werden Schemas zu JSON-Dateien im aktuellen Projekt zugeordnet. An array of file patterns to match against when resolving JSON files to schemas. Ein Array aus Dateimustern zum Abgleich beim Auflösen von JSON-Dateien in Schemas A file pattern that can contain '*' to match against when resolving JSON files to schemas. Ein Dateimuster, das "*" enthalten kann, zum Abgleich beim Auflösen von JSON-Dateien in Schemas The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Die Schemadefinition für die angegebene URL. Das Schema muss nur angegeben werden, um Zugriffe auf die Schema-URL zu vermeiden. A URL to a schema or a relative path to a schema in the current directory Eine URL zu einem Schema oder ein relativer Pfad zu einem Schema im aktuellen Verzeichnis MSSQL configuration MSSQL-Konfiguration Declares the application workload type when connecting to a server Deklariert den Anwendungsauslastungstyp beim Herstellen einer Verbindung mit einem Server. Application intent Anwendungszweck The name of the application Der Name der Anwendung Application name Anwendungsname When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Bei Festlegung auf TRUE wird die Verwendung der asynchronen Verarbeitung im .NET Framework-Datenanbieter ermöglicht. Asynchronous processing Asynchrone Verarbeitung Attach DB filename Dateiname der anzufügenden Datenbank The name of the primary file, including the full path name, of an attachable database Der Name der primären Datei einer anfügbaren Datenbank, einschließlich des vollständigen Pfadnamens. Attached DB file name Dateiname der angefügten Datenbank Azure Active Directory - Universal with MFA support Azure Active Directory: universell mit MFA-Unterstützung Windows Authentication Windows-Authentifizierung SQL Login SQL-Anmeldung Specifies the method of authenticating with SQL Server Gibt die Methode für die Authentifizierung bei SQL Server an. Authentication type Authentifizierungstyp Enables or disables Always Encrypted for the connection Aktiviert oder deaktiviert Always Encrypted für die Verbindung. Always Encrypted Always Encrypted Number of attempts to restore connection Anzahl der Versuche zur Verbindungswiederherstellung Connect retry count Anzahl der Verbindungswiederholungen Delay between attempts to restore connection Verzögerung zwischen Versuchen zur Verbindungswiederherstellung Connect retry interval Intervall für Verbindungswiederholung The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Die Zeitspanne (in Sekunden), die auf eine Verbindung mit dem Server gewartet wird, bevor der Versuch beendet und ein Fehler generiert wird. Connect timeout Verbindungstimeout Custom name of the connection Benutzerdefinierter Name der Verbindung Name (optional) Name (optional) When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Bei Festlegung auf TRUE muss die Verbindung aus dem SQL-Serverkontext stammen. Nur verfügbar bei Ausführung im SQL Server-Prozess. Context connection Kontextverbindung The SQL Server language record name Der Datensatzname der SQL Server-Sprache Current language Aktuelle Sprache The name of the initial catalog or database int the data source Der Name des anfänglichen Katalogs oder der ersten Datenbank in der Datenquelle Database Datenbank Azure Attestation Azure Attestation Host Guardian Service Host-Überwachungsdienst Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves Gibt ein Protokoll zum Nachweis einer serverseitigen Enclave an, die mit Always Encrypted für Secure Enclaves verwendet wird. Attestation Protocol Nachweisprotokoll Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves Gibt einen Endpunkt zum Nachweis einer serverseitigen Enclave an, die mit Always Encrypted für Secure Enclaves verwendet wird. Enclave Attestation URL Enclave-Nachweis-URL When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Bei Festlegung auf TRUE verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, sofern auf dem Server ein Zertifikat installiert ist. Encrypt Verschlüsseln The name or network address of the instance of SQL Server that acts as a failover partner Der Name oder die Netzwerkadresse der SQL Server-Instanz, die als Failoverpartner fungiert Failover partner Failoverpartner Advanced Erweitert Connection Resiliency Verbindungsresilienz Context Kontext Initialization Initialisierung Pooling Pooling Replication Replikation Security Sicherheit Source Quelle The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Die Mindestzeitspanne (in Sekunden), für die diese Verbindung im Pool verbleiben soll, bevor sie zerstört wird Load balance timeout Timeout für Lastenausgleich The maximum number of connections allowed in the pool Die maximal zulässige Anzahl von Verbindungen im Pool Max pool size Maximale Poolgröße The minimum number of connections allowed in the pool Die mindestens erforderliche Anzahl von Verbindungen im Pool Min pool size Minimale Poolgröße Multi subnet failover Multisubnetzfailover When true, multiple result sets can be returned and read from one connection Bei Festlegung auf TRUE können mehrere Resultsets zurückgegeben und aus einer Verbindung gelesen werden. Multiple active result sets Mehrere aktive Resultsets Size in bytes of the network packets used to communicate with an instance of SQL Server Größe der Netzwerkpakete (in Byte), die bei der Kommunikation mit einer Instanz von SQL Server verwendet werden Packet size Paketgröße Indicates the password to be used when connecting to the data source Gibt das Kennwort an, das beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. Password Kennwort When false, security-sensitive information, such as the password, is not returned as part of the connection Bei Festlegung auf FALSE werden sicherheitsrelevante Informationen, z. B. das Kennwort, nicht als Teil der Verbindung zurückgegeben. Persist security info Sicherheitsinformationen dauerhaft speichern When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Bei Festlegung auf TRUE wird das Verbindungsobjekt aus dem geeigneten Pool abgerufen oder bei Bedarf erstellt und dem geeigneten Pool hinzugefügt. Pooling Pooling Port Port Used by SQL Server in Replication Wird von SQL Server bei der Replikation verwendet. Replication Replikation Name of the SQL Server instance Name der SQL Server-Instanz Server Server When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Bei Festlegung auf TRUE (und encrypt=true) verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, ohne das Serverzertifikat zu überprüfen. Trust server certificate Serverzertifikat vertrauen Indicates which server type system the provider will expose through the DataReader Gibt an, welches Servertypsystem der Anbieter über den DataReader offenlegt. Type system version Typsystemversion Indicates the user ID to be used when connecting to the data source Gibt die Benutzer-ID an, die beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. User name Benutzername The name of the workstation connecting to SQL Server Der Name der Arbeitsstation, die eine Verbindung mit SQL Server herstellt Workstation Id Arbeitsstations-ID Disabled Deaktiviert Enabled Aktiviert Export Notebook as SQL Notebook als SQL exportieren Export SQL as Notebook SQL als Notebook exportieren Should column definitions be aligned? Sollen Spaltendefinitionen ausgerichtet werden? Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Gibt an, ob Datentypen in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen. Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Gibt an, ob Schlüsselwörter in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen. should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Gibt an, dass Kommas in einer Liste am Anfang der einzelnen Anweisungen (z. B. ", mycolumn2") und nicht am Ende platziert werden sollen: "mycolumn1," Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Sollen Verweise auf Objekte in einer SELECT-Anweisung in separaten Zeilen angezeigt werden? Beispielsweise werden bei "SELECT C1, C2 FROM T1" C1 und C2 jeweils in separaten Zeilen angezeigt. [Optional] Do not show unsupported platform warnings [Optional] Keine Anzeige von Warnungen zu nicht unterstützten Plattformen. Should IntelliSense error checking be enabled Gibt an, ob die IntelliSense-Fehlerüberprüfung aktiviert werden soll. Should IntelliSense be enabled Gibt an, ob IntelliSense aktiviert werden soll. Should IntelliSense quick info be enabled Gibt an, ob IntelliSense-QuickInfo aktiviert werden soll. Should IntelliSense suggestions be enabled Gibt an, ob IntelliSense-Vorschläge aktiviert werden sollen. Should IntelliSense suggestions be lowercase Gibt an, ob IntelliSense-Vorschläge in Kleinbuchstaben angezeigt werden sollen. [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Optional] Protokollieren Sie die Debugausgabe in der Konsole (Ansicht > Ausgabe), und wählen Sie dann in der Dropdownliste den geeigneten Ausgabekanal aus. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Die maximale Anzahl alter Dateien, die beim Start entfernt werden sollen, bei denen der mssql.logRetentionMinutes-Wert abgelaufen ist. Dateien, die aufgrund dieser Einschränkung nicht bereinigt werden, werden beim nächsten Start von Azure Data Studio bereinigt. Number of minutes to retain log files for backend services. Default is 1 week. Anzahl von Minuten, für die Protokolldateien für Back-End-Dienste aufbewahrt werden sollen. Der Standardwert ist 1 Woche. Microsoft SQL Server Microsoft SQL Server Enable Parameterization for Always Encrypted Parametrisierung für Always Encrypted aktivieren Enable SET ANSI_DEFAULTS SET ANSI_DEFAULTS aktivieren Enable SET ANSI_NULL_DFLT_ON SET ANSI_NULL_DFLT_ON aktivieren Enable SET ANSI_NULLS SET ANSI_NULLS aktivieren Enable SET ANSI_PADDING SET ANSI_PADDING aktivieren Enable SET ANSI_WARNINGS SET ANSI_WARNINGS aktivieren Enable SET ARITHABORT option Set ARITHABORT-Option aktivieren Enable SET CURSOR_CLOSE_ON_COMMIT SET CURSOR_CLOSE_ON_COMMIT aktivieren Enable SET DEADLOCK_PRIORITY option SET DEADLOCK_PRIORITY-Option aktivieren Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' BIT-Spalten als Zahlen (1 oder 0) anzeigen? Bei Festlegung auf FALSE werden BIT-Spalten als TRUE oder FALSE angezeigt. An execution time-out of 0 indicates an unlimited wait (no time-out) Ein Timeoutwert von 0 für die Ausführung kennzeichnet einen unbegrenzten Wartevorgang (kein Timeout). Enable SET IMPLICIT_TRANSACTIONS SET IMPLICIT_TRANSACTIONS aktivieren Enable SET LOCK TIMEOUT option (in milliseconds) SET LOCK TIMEOUT-Option aktivieren (in Millisekunden) Number of XML characters to store after running a query Anzahl von XML-Zeichen, die nach dem Ausführen einer Abfrage gespeichert werden sollen Enable SET NOCOUNT option SET NOCOUNT-Option aktivieren Enable SET NOEXEC option SET NOEXEC-Option aktivieren Enable SET PARSEONLY option SET PARSEONLY-Option aktivieren Enable SET QUERY_GOVERNOR_COST_LIMIT SET QUERY_GOVERNOR_COST_LIMIT aktivieren Enable SET QUOTED_IDENTIFIER SET QUOTED_IDENTIFIER aktivieren Maximum number of rows to return before the server stops processing your query. Maximale Anzahl von Zeilen, die zurückgegeben werden sollen, bevor der Server die Verarbeitung Ihrer Abfrage beendet. Enable SET STATISTICS IO option Set STATISTICS IO-Option aktivieren Enable SET STATISTICS TIME option SET STATISTICS TIME-Option aktivieren Maximum size of text and ntext data returned from a SELECT statement Maximale Größe von text- und ntext-Daten, die von einer SELECT-Anweisung zurückgegeben werden Enable SET TRANSACTION ISOLATION LEVEL option SET TRANSACTION ISOLATION LEVEL-Option aktivieren Enable SET XACT_ABORT ON option SET XACT_ABORT ON-Option aktivieren [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Optional] Protokolliergrad für Back-End-Dienste. Azure Data Studio generiert bei jedem Start einen Dateinamen, und falls die Datei bereits vorhanden ist, werden die Protokolleinträge an diese Datei angehängt. Zur Bereinigung alter Protokolldateien können die Einstellungen "logRetentionMinutes" und "logFilesRemovalLimit" verwendet werden. Bei Verwendung des Standardwerts für "tracingLevel" werden nur wenige Informationen protokolliert. Eine Änderung der Ausführlichkeit kann zu einem umfangreichen Protokollierungsaufkommen und einem hohen Speicherplatzbedarf für die Protokolle führen. "Error" umfasst kritische Meldungen, "Warning" umfasst alle Daten aus "Error" sowie Warnmeldungen, "Information" umfasst alle Daten aus "Warning" sowie Informationsmeldungen, "Verbose" umfasst ausführliche Informationen. Copy Path Pfad kopieren Delete Löschen Manage Access Zugriff verwalten New directory Neues Verzeichnis Preview Vorschau Save Speichern Upload files Dateien hochladen New Notebook Neues Notebook Open Notebook Notebook öffnen Name Name Compatibility Level Kompatibilitätsgrad Last Database Backup Letzte Datenbanksicherung Last Log Backup Letzte Protokollsicherung Owner Besitzer Recovery Model Wiederherstellungsmodell Computer Name Computername OS Version Betriebssystemversion Edition Edition Version Version Tasks and information about your SQL Server Big Data Cluster Aufgaben und Informationen zu Ihrem SQL Server-Big Data-Cluster SQL Server Big Data Cluster SQL Server-Big Data-Cluster Notebooks Notebooks Search: Clear Search Server Results Suche: Suchserverergebnisse löschen Configure Python for Notebooks Python für Notebooks konfigurieren Design Entwurf Service Endpoints Dienstendpunkte Install Packages Pakete installieren New Spark Job Neuer Spark-Auftrag New Table Neue Tabelle Cluster Dashboard Cluster Dashboard View Spark History Spark-Verlauf anzeigen View Yarn History Yarn-Verlauf anzeigen Search: Servers Suche: Server Show Log File Protokolldatei anzeigen Submit Spark Job Spark-Auftrag übermitteln Tasks Aufgaben