Associate schemas to JSON files in the current project Schemas zu JSON-Dateien im aktuellen Projekt zuordnen A URL to a schema or a relative path to a schema in the current directory Eine URL zu einem Schema oder ein relativer Pfad zu einem Schema im aktuellen Verzeichnis An array of file patterns to match against when resolving JSON files to schemas. Ein Array von Dateimustern, mit dem beim Auflösen von JSON-Dateien zu Schemas ein Abgleich erfolgt. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Ein Dateimuster, das "*" enthalten kann, mit dem beim Auflösen von JSON-Dateien zu Schemas ein Abgleich erfolgt. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Die Schemadefinition für die angegebene URL. Das Schema muss nur angegeben werden, um Zugriffe auf die Schema-URL zu vermeiden. Enable/disable default JSON formatter (requires restart) Standard-JSON-Formatierer aktivieren/deaktivieren (Neustart erforderlich) Upload files Dateien hochladen New directory Neues Verzeichnis Delete Löschen Preview Vorschau Save Speichern Copy Path Pfad kopieren New Notebook Neues Notebook Open Notebook Notebook öffnen Tasks and information about your SQL Server big data cluster Aufgaben und Informationen zu Ihrem SQL Server-Big Data-Cluster SQL Server big data cluster SQL Server-Big Data-Cluster Submit Spark Job Spark-Auftrag übermitteln New Spark Job Neuer Spark-Auftrag View Spark History Spark-Verlauf anzeigen View Yarn History YARN-Verlauf anzeigen Tasks Tasks Install Packages Pakete installieren Configure Python for Notebooks Python für Notebooks konfigurieren Search: Servers Suche: Server Search: Clear Search Server Results Suche: Suchserverergebnisse löschen Service Endpoints Dienstendpunkte MSSQL configuration MSSQL-Konfiguration Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' BIT-Spalten als Zahlen (1 oder 0) anzeigen? Wenn nicht, werden BIT-Spalten als "wahr" oder "falsch" angezeigt Should column definitions be aligned? Sollen Spaltendefinitionen ausgerichtet werden? Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Sollen Datentypen in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Sollen Schlüsselwörter in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Sollen Kommas am Anfang jeder Anweisung in einer Liste platziert werden, z. B. ', mycolumn2' amstatt am Ende, z. B. 'mycolumn1,' Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Sollten Verweise auf Objekte in einer SELECT-Anweisung in separaten Zeilen angezeigt werden? Z. B. werden bei "SELECT C1, C2 FROM T1" C1 und C2 jeweils in separaten Zeilen angezeigt [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Optional] Protokollieren Sie die Debugausgabe in der Konsole (Ansicht > Ausgabe), und wählen Sie dann den entsprechenden Ausgabekanal aus der Dropdownliste aus. [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Optional] Protokollebene für Back-End-Dienste. Azure Data Studio generiert bei jedem Start einen Dateinamen, und wenn die Datei bereits vorhanden ist, werden die Protokolleinträge an diese Datei angehängt. Zur Bereinigung alter Protokolldateien finden Sie die Einstellungen logRetentionMinutes und logFilesRemovalLimit. Beim Standard-tracingLevel wird nicht viel protokolliert. Das Ändern der Ausführlichkeit kann zu umfangreicher Protokollierung und hohen Speicherplatzanforderungen für die Protokolle führen. "Error" beinhaltet "Critical", "Warning" beinhaltet "Error", "Information beinhaltet "Warning", und "Verbose" beinhaltet "Information". Number of minutes to retain log files for backend services. Default is 1 week. Anzahl von Minuten, für die Protokolldateien für Back-End-Dienste aufbewahrt werden sollen. Der Standardwert ist 1 Woche. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Die maximale Anzahl alter Dateien, die beim Start entfernt werden sollen, bei denen die mssql.logRetentionMinutes abgelaufen sind. Dateien, die aufgrund dieser Einschränkung nicht bereinigt werden, werden beim nächsten Start von Azure Data Studio bereinigt. [Optional] Do not show unsupported platform warnings [Optional] Keine Warnungen zu nicht unterstützten Plattformen anzeigen Recovery Model Wiederherstellungsmodell Last Database Backup Letzte Datenbanksicherung Last Log Backup Letzte Protokollsicherung Compatibility Level Kompatibilitätsgrad Owner Besitzer Version Version Edition Edition Computer Name Computername OS Version Betriebssystemversion Edition Edition Pricing Tier Tarif Compatibility Level Kompatibilitätsgrad Owner Besitzer Version Version Type Typ Microsoft SQL Server Microsoft SQL Server Name (optional) Name (optional) Custom name of the connection Benutzerdefinierter Name der Verbindung Server Server Name of the SQL Server instance Name der SQL Server-Instanz Database Datenbank The name of the initial catalog or database int the data source Der Name des ursprünglichen Katalogs oder der ersten Datenbank in der Datenquelle Authentication type Authentifizierungstyp Specifies the method of authenticating with SQL Server Gibt die Methode der Authentifizierung bei SQL Server an. SQL Login SQL-Login Windows Authentication Windows-Authentifizierung Azure Active Directory - Universal with MFA support Azure Active Directory: universell mit MFA-Unterstützung User name Benutzername Indicates the user ID to be used when connecting to the data source Gibt die Benutzer-ID an, die beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. Password Kennwort Indicates the password to be used when connecting to the data source Gibt das Kennwort an, das beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. Application intent Anwendungszweck Declares the application workload type when connecting to a server Deklariert den Anwendungsworkloadtyp beim Herstellen einer Verbindung mit einem Server. Asynchronous processing Asynchrone Verarbeitung When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Bei TRUE wird die Verwendung der asynchronen Funktionalität im .NET Framework-Datenanbieter ermöglicht. Connect timeout Verbindungstimeout The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Die Zeitspanne (in Sekunden), die auf eine Verbindung mit dem Server gewartet werden muss, bevor der Versuch beendet und ein Fehler generiert wird Current language Aktuelle Sprache The SQL Server language record name Der Datensatzname der SQL Server-Sprache Column encryption Spaltenverschlüsselung Default column encryption setting for all the commands on the connection Standardeinstellung für die Spaltenverschlüsselung für alle Befehle in der Verbindung Encrypt Verschlüsseln When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Bei TRUE verwendet SQL Server die SSL-Verschlüsselung für alle Daten, die zwischen Client und Server gesendet werden, wenn auf dem Server ein Zertifikat installiert ist. Persist security info Sicherheitsinformationen dauerhaft speichern When false, security-sensitive information, such as the password, is not returned as part of the connection Bei FALSE werden sicherheitsrelevante Informationen, z. B. das Kennwort, nicht als Teil der Verbindung zurückgegeben. Trust server certificate Serverzertifikat vertrauen When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Bei TRUE (und encrypt=true) verwendet SQL Server die SSL-Verschlüsselung für alle Daten, die zwischen Client und Server gesendet werden, ohne das Serverzertifikat zu überprüfen. Attached DB file name Angefügter DB-Dateiname The name of the primary file, including the full path name, of an attachable database Der Name der primären Datei einer anfügbaren Datenbank, einschließlich des vollständigen Pfadnamens Context connection Kontextverbindung When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Bei TRUE wird angegeben, dass die Verbindung aus dem SQL Server-Kontext stammen muss. Nur verfügbar bei Ausführung im SQL Server-Prozess. Port Port Connect retry count Anzahl von Verbindungswiederholungen Number of attempts to restore connection Anzahl der Versuche zur Verbindungswiederherstellung Connect retry interval Intervall für Verbindungswiederholungen Delay between attempts to restore connection Verzögerung zwischen Versuchen zur Verbindungswiederherstellung Application name Anwendungsname The name of the application Der Name der Anwendung Workstation Id Arbeitsstations-ID The name of the workstation connecting to SQL Server Der Name der Arbeitsstation, die eine Verbindung mit SQL Server herstellt Pooling Pooling When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Bei TRUE wird das Verbindungsobjekt aus dem entsprechenden Pool abgerufen oder bei Bedarf erstellt und dem entsprechenden Pool hinzugefügt. Max pool size Maximale Poolgröße The maximum number of connections allowed in the pool Die maximale Anzahl der im Pool zulässigen Verbindungen Min pool size Mindestgröße für Pool The minimum number of connections allowed in the pool Die Mindestanzahl der im Pool zulässigen Verbindungen Load balance timeout Timeout beim Lastenausgleich The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Die Mindestzeit (in Sekunden), die diese Verbindung im Pool verbleibt, bevor sie zerstört wird Replication Replikation Used by SQL Server in Replication Wird von SQL Server bei der Replikation verwendet. Attach DB filename DB-Dateinamen anfügen Failover partner Failoverpartner The name or network address of the instance of SQL Server that acts as a failover partner Der Name oder die Netzwerkadresse der Instanz von SQL Server, die als Failoverpartner fungiert Multi subnet failover Multisubnetzfailover Multiple active result sets Mehrere aktive Resultsets When true, multiple result sets can be returned and read from one connection Bei TRUE können mehrere Resultsets über eine Verbindung zurückgegeben und gelesen werden. Packet size Paketgröße Size in bytes of the network packets used to communicate with an instance of SQL Server Größe der Netzwerkpakete (in Byte), die für die Kommunikation mit einer Instanz von SQL Server verwendet werden Type system version TypSystemversion Indicates which server type system then provider will expose through the DataReader Gibt an, welches Servertypsystem vom Anbieter über den DataReader verfügbar gemacht wird. No Spark job batch id is returned from response.{0}[Error] {1} Von der Antwort wurde keine Batch-ID für Spark-Aufträge zurückgegeben.{0}[Fehler] {1} No log is returned within response.{0}[Error] {1} Innerhalb der Antwort wird kein Protokoll zurückgegeben.{0}[Fehler] {1} Parameters for SparkJobSubmissionModel is illegal Parameter für SparkJobSubmissionModel sind ungültig. submissionArgs is invalid. submissionArgs ist ungültig. livyBatchId is invalid. livyBatchId ist ungültig. Get Application Id time out. {0}[Log] {1} Timeout beim Abrufen der Anwendungs-ID. {0}[Protokoll] {1} Property localFilePath or hdfsFolderPath is not specified. Die localFilePath- oder hdfsFolderPath-Eigenschaft wurde nicht angegeben. Property Path is not specified. Der Eigenschaftspfad wurde nicht angegeben. Parameters for SparkJobSubmissionDialog is illegal Parameter für SparkJobSubmissionDialog sind ungültig. New Job Neuer Auftrag Cancel Abbrechen Submit Senden {0} Spark Job Submission: {0} Spark-Auftragsübermittlung: .......................... Submit Spark Job Start .......................... .......................... Start der Spark-Auftragsübermittlung .......................... GENERAL Allgemein Enter a name ... Namen eingeben... Job Name Auftragsname Spark Cluster Spark-Cluster Path to a .jar or .py file Pfad zu einer JAR- oder PY-Datei The selected local file will be uploaded to HDFS: {0} Die ausgewählte lokale Datei wird in HDFS hochgeladen: {0} JAR/py File JAR-/PY-Datei Main Class Hauptklasse Arguments Argumente Command line arguments used in your main class, multiple arguments should be split by space. Befehlszeilenargumente, die in Ihrer Hauptklasse verwendet werden. Mehrere Argumente müssen durch Leerzeichen voneinander getrennt werden. Property Job Name is not specified. Der Eigenschaftsauftragsname wurde nicht angegeben. Property JAR/py File is not specified. Die JAR-/PY-Datei der Eigenschaft wurde nicht angegeben. Property Main Class is not specified. Die Hauptklasse der Eigenschaft wurde nicht angegeben. {0} does not exist in Cluster or exception thrown. "{0}" ist im Cluster nicht vorhanden, oder eine Ausnahme wurde ausgelöst. The specified HDFS file does not exist. Die angegebene HDFS-Datei ist nicht vorhanden. Select Auswählen Error in locating the file due to Error: {0} Fehler beim Auffinden der Datei aufgrund des folgenden Fehlers: {0} ADVANCED Erweitert Reference Jars Referenz-JARs Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) JARs, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der JAR-Pfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch Semikolon (;) getrennt werden. Reference py Files Referenz-Py-Dateien Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) PY-Dateien, die im Arbeitsverzeichnis des Executors abgelegt werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen per Semikolon (;) voneinander getrennt werden. Reference Files Referenzdateien Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Dateien, die im Arbeitsverzeichnis des Executors abgelegt werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch Semikolon (;) voneinander getrennt werden. Please select SQL Server with big data cluster. Wählen Sie SQL Server mit Big Data-Cluster aus. No Sql Server is selected. Es ist keine SQL Server-Instanz ausgewählt. Error Get File Path: {0} Fehler beim Abrufen des Dateipfads: {0} ... Creating {0} ... {0} wird erstellt Process exited with code {0} Der Prozess wurde mit Code {0} beendet. Invalid Data Structure Ungültige Datenstruktur Unable to create WebHDFS client due to missing options: ${0} WebHDFS-Client kann aufgrund fehlender Optionen nicht erstellt werden: ${0} '${0}' is undefined. "${0}" ist nicht definiert. Bad Request Fehlerhafte Anforderung. Unauthorized Nicht autorisiert Forbidden Unzulässig Not Found Nicht gefunden Internal Server Error Interner Serverfehler. Unknown Error Unbekannter Fehler Unexpected Redirect Unerwartete Umleitung Please provide the password to connect to HDFS: Geben Sie das Kennwort für die Verbindung mit HDFS an: Session for node {0} does not exist Die Sitzung für den Knoten "{0}" ist nicht vorhanden. Error notifying of node change: {0} Fehler bei Benachrichtigung über Knotenänderung: {0} Root Stamm HDFS HDFS Error: {0} Fehler: {0} Cannot delete a connection. Only subfolders and files can be deleted. Eine Verbindung kann nicht gelöscht werden. Nur Unterordner und Dateien können gelöscht werden. All Files Alle Dateien Upload Hochladen Uploading files to HDFS Dateien werden in HDFS hochgeladen Upload operation was canceled Der Uploadvorgang wurde abgebrochen. Error uploading files: {0} Fehler beim Hochladen von Dateien: {0} Creating directory Das Verzeichnis wird erstellt. Operation was canceled Der Vorgang wurde abgebrochen. Error on making directory: {0} Fehler beim Erstellen des Verzeichnisses: {0} Enter directory name Verzeichnisnamen eingeben Error on deleting files: {0} Fehler beim Löschen von Dateien: {0} Are you sure you want to delete this folder and its contents? Möchten Sie diesen Ordner und seinen Inhalt löschen? Are you sure you want to delete this file? Möchten Sie diese Datei löschen? Saving HDFS Files HDFS-Dateien werden gespeichert. Save operation was canceled Der Speichervorgang wurde abgebrochen. Error on saving file: {0} Fehler beim Speichern der Datei: {0} Generating preview Die Vorschau wird generiert. Error on previewing file: {0} Fehler bei der Vorschau der Datei: {0} Error on copying path: {0} Fehler beim Kopieren des Pfads: {0} NOTICE: This file has been truncated at {0} for preview. HINWEIS: Diese Datei wurde zur Vorschau bei "{0}" abgeschnitten. The file has been truncated at {0} for preview. Die Datei wurde zur Vorschau bei "{0}" abgeschnitten. ConnectionInfo is undefined. ConnectionInfo ist nicht definiert. ConnectionInfo.options is undefined. "ConnectionInfo.options" ist nicht definiert. Some missing properties in connectionInfo.options: {0} Einige Eigenschaften fehlen in connectionInfo.options: {0} $(sync~spin) {0}... $(sync~spin) {0}... Cancel Abbrechen Cancel operation? Vorgang abbrechen? Search Server Names Server-Namen suchen Stream operation canceled by the user Der Streamvorgang wurde vom Benutzer abgebrochen. Yes Ja No Nein This sample code loads the file into a data frame and shows the first 10 results. Dieser Beispielcode lädt die Datei in einen Datenrahmen und zeigt die ersten 10 Ergebnisse an. Metrics Dashboard Metrikdashboard Log Search Dashboard Dashboard für Protokollsuche Spark Job Monitoring Überwachung von Spark-Aufträgen Spark Resource Management Spark-Ressourcenverwaltung Copy Kopieren Application Proxy Anwendungsproxy Cluster Management Service Clusterverwaltungsdienst HDFS and Spark HDFS und Spark Management Proxy Verwaltungsproxy Management Proxy Verwaltungsproxy Notebooks Notebooks Only .ipynb Notebooks are supported Es werden nur IPYNB-Notebooks unterstützt. Unable to find the file specified Die angegebene Datei wurde nicht gefunden. Installing {0} service to {1} Der Dienst {0} wird unter {1} installiert. Installing Service Dienst wird installiert Installed INSTALLIERT Downloading {0} {0} wird heruntergeladen. ({0} KB) ({0} KB) Downloading Service Download-Dienst Done! Fertig! Node Command called without any node passed Es wurde ein Knotenbefehl aufgerufen, ohne dass ein Knoten übergeben wurde. Local file will be uploaded to HDFS. Lokale Datei wird in HDFS hochgeladen. .......................... Submit Spark Job End ............................ .......................... Ende der Spark-Auftragsübermittlung ............................ Uploading file from local {0} to HDFS folder: {1} Die Datei wird aus dem lokalen Ordner "{0}" in den HDFS-Ordner hochgeladen: {1} Upload file to cluster Succeeded! Die Datei wurde erfolgreich in den Cluster hochgeladen. Upload file to cluster Failed. {0} Fehler beim Hochladen der Datei in den Cluster. {0} Submitting job {0} ... Der Auftrag "{0}" wird übermittelt... The Spark Job has been submitted. Der Spark-Auftrag wurde übermittelt. Spark Job Submission Failed. {0} Fehler bei der Spark-Auftragsübermittlung. {0} YarnUI Url: {0} YarnUI-URL: {0} Spark History Url: {0} Spark-Verlaufs-URL: {0} Get Application Id Failed. {0} Fehler beim Abrufen der Anwendungs-ID. {0} Local file {0} does not existed. Die lokale Datei "{0}" ist nicht vorhanden. No Sql Server big data cluster found. Es wurde kein SQL Server-Big Data-Cluster gefunden.