Associate schemas to JSON files in the current project Hiermit werden Schemas zu JSON-Dateien im aktuellen Projekt zugeordnet. A URL to a schema or a relative path to a schema in the current directory Eine URL zu einem Schema oder ein relativer Pfad zu einem Schema im aktuellen Verzeichnis An array of file patterns to match against when resolving JSON files to schemas. Ein Array aus Dateimustern zum Abgleich beim Auflösen von JSON-Dateien in Schemas A file pattern that can contain '*' to match against when resolving JSON files to schemas. Ein Dateimuster, das "*" enthalten kann, zum Abgleich beim Auflösen von JSON-Dateien in Schemas The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Die Schemadefinition für die angegebene URL. Das Schema muss nur angegeben werden, um Zugriffe auf die Schema-URL zu vermeiden. Enable/disable default JSON formatter (requires restart) Standard-JSON-Formatierer aktivieren/deaktivieren (Neustart erforderlich) Upload files Dateien hochladen New directory Neues Verzeichnis Delete Löschen Preview Vorschau Save Speichern Copy Path Pfad kopieren Manage Access Zugriff verwalten New Notebook Neues Notebook Open Notebook Notebook öffnen Tasks and information about your SQL Server Big Data Cluster Aufgaben und Informationen zu Ihrem SQL Server-Big Data-Cluster SQL Server Big Data Cluster SQL Server-Big Data-Cluster Submit Spark Job Spark-Auftrag übermitteln New Spark Job Neuer Spark-Auftrag View Spark History Spark-Verlauf anzeigen View Yarn History Yarn-Verlauf anzeigen Tasks Aufgaben Install Packages Pakete installieren Configure Python for Notebooks Python für Notebooks konfigurieren Search: Servers Suche: Server Search: Clear Search Server Results Suche: Suchserverergebnisse löschen Service Endpoints Dienstendpunkte Notebooks Notebooks Show Log File Protokolldatei anzeigen MSSQL configuration MSSQL-Konfiguration Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' BIT-Spalten als Zahlen (1 oder 0) anzeigen? Bei Festlegung auf FALSE werden BIT-Spalten als TRUE oder FALSE angezeigt. Should column definitions be aligned? Sollen Spaltendefinitionen ausgerichtet werden? Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Gibt an, ob Datentypen in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen. Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Gibt an, ob Schlüsselwörter in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen. should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Gibt an, dass Kommas in einer Liste am Anfang der einzelnen Anweisungen (z. B. ", mycolumn2") und nicht am Ende platziert werden sollen: "mycolumn1," Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Sollen Verweise auf Objekte in einer SELECT-Anweisung in separaten Zeilen angezeigt werden? Beispielsweise werden bei "SELECT C1, C2 FROM T1" C1 und C2 jeweils in separaten Zeilen angezeigt. [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Optional] Protokollieren Sie die Debugausgabe in der Konsole (Ansicht > Ausgabe), und wählen Sie dann in der Dropdownliste den geeigneten Ausgabekanal aus. [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Optional] Protokolliergrad für Back-End-Dienste. Azure Data Studio generiert bei jedem Start einen Dateinamen, und falls die Datei bereits vorhanden ist, werden die Protokolleinträge an diese Datei angehängt. Zur Bereinigung alter Protokolldateien können die Einstellungen "logRetentionMinutes" und "logFilesRemovalLimit" verwendet werden. Bei Verwendung des Standardwerts für "tracingLevel" werden nur wenige Informationen protokolliert. Eine Änderung der Ausführlichkeit kann zu einem umfangreichen Protokollierungsaufkommen und einem hohen Speicherplatzbedarf für die Protokolle führen. "Error" umfasst kritische Meldungen, "Warning" umfasst alle Daten aus "Error" sowie Warnmeldungen, "Information" umfasst alle Daten aus "Warning" sowie Informationsmeldungen, "Verbose" umfasst ausführliche Informationen. Number of minutes to retain log files for backend services. Default is 1 week. Anzahl von Minuten, für die Protokolldateien für Back-End-Dienste aufbewahrt werden sollen. Der Standardwert ist 1 Woche. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Die maximale Anzahl alter Dateien, die beim Start entfernt werden sollen, bei denen der mssql.logRetentionMinutes-Wert abgelaufen ist. Dateien, die aufgrund dieser Einschränkung nicht bereinigt werden, werden beim nächsten Start von Azure Data Studio bereinigt. [Optional] Do not show unsupported platform warnings [Optional] Keine Anzeige von Warnungen zu nicht unterstützten Plattformen. Recovery Model Wiederherstellungsmodell Last Database Backup Letzte Datenbanksicherung Last Log Backup Letzte Protokollsicherung Compatibility Level Kompatibilitätsgrad Owner Besitzer Version Version Edition Edition Computer Name Computername OS Version Betriebssystemversion Edition Edition Pricing Tier Tarif Compatibility Level Kompatibilitätsgrad Owner Besitzer Version Version Type Typ Microsoft SQL Server Microsoft SQL Server Name (optional) Name (optional) Custom name of the connection Benutzerdefinierter Name der Verbindung Server Server Name of the SQL Server instance Name der SQL Server-Instanz Database Datenbank The name of the initial catalog or database int the data source Der Name des anfänglichen Katalogs oder der ersten Datenbank in der Datenquelle Authentication type Authentifizierungstyp Specifies the method of authenticating with SQL Server Gibt die Methode für die Authentifizierung bei SQL Server an. SQL Login SQL-Anmeldung Windows Authentication Windows-Authentifizierung Azure Active Directory - Universal with MFA support Azure Active Directory: universell mit MFA-Unterstützung User name Benutzername Indicates the user ID to be used when connecting to the data source Gibt die Benutzer-ID an, die beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. Password Kennwort Indicates the password to be used when connecting to the data source Gibt das Kennwort an, das beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll. Application intent Anwendungszweck Declares the application workload type when connecting to a server Deklariert den Anwendungsauslastungstyp beim Herstellen einer Verbindung mit einem Server. Asynchronous processing Asynchrone Verarbeitung When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Bei Festlegung auf TRUE wird die Verwendung der asynchronen Verarbeitung im .NET Framework-Datenanbieter ermöglicht. Connect timeout Verbindungstimeout The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Die Zeitspanne (in Sekunden), die auf eine Verbindung mit dem Server gewartet wird, bevor der Versuch beendet und ein Fehler generiert wird. Current language Aktuelle Sprache The SQL Server language record name Der Datensatzname der SQL Server-Sprache Column encryption Spaltenverschlüsselung Default column encryption setting for all the commands on the connection Die Standardeinstellung für die Spaltenverschlüsselung für alle Befehle in der Verbindung Encrypt Verschlüsseln When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Bei Festlegung auf TRUE verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, sofern auf dem Server ein Zertifikat installiert ist. Persist security info Sicherheitsinformationen dauerhaft speichern When false, security-sensitive information, such as the password, is not returned as part of the connection Bei Festlegung auf FALSE werden sicherheitsrelevante Informationen, z. B. das Kennwort, nicht als Teil der Verbindung zurückgegeben. Trust server certificate Serverzertifikat vertrauen When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Bei Festlegung auf TRUE (und encrypt=true) verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, ohne das Serverzertifikat zu überprüfen. Attached DB file name Dateiname der angefügten Datenbank The name of the primary file, including the full path name, of an attachable database Der Name der primären Datei einer anfügbaren Datenbank, einschließlich des vollständigen Pfadnamens. Context connection Kontextverbindung When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Bei Festlegung auf TRUE muss die Verbindung aus dem SQL-Serverkontext stammen. Nur verfügbar bei Ausführung im SQL Server-Prozess. Port Port Connect retry count Anzahl der Verbindungswiederholungen Number of attempts to restore connection Anzahl der Versuche zur Verbindungswiederherstellung Connect retry interval Intervall für Verbindungswiederholung Delay between attempts to restore connection Verzögerung zwischen Versuchen zur Verbindungswiederherstellung Application name Anwendungsname The name of the application Der Name der Anwendung Workstation Id Arbeitsstations-ID The name of the workstation connecting to SQL Server Der Name der Arbeitsstation, die eine Verbindung mit SQL Server herstellt Pooling Pooling When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Bei Festlegung auf TRUE wird das Verbindungsobjekt aus dem geeigneten Pool abgerufen oder bei Bedarf erstellt und dem geeigneten Pool hinzugefügt. Max pool size Maximale Poolgröße The maximum number of connections allowed in the pool Die maximal zulässige Anzahl von Verbindungen im Pool Min pool size Minimale Poolgröße The minimum number of connections allowed in the pool Die mindestens erforderliche Anzahl von Verbindungen im Pool Load balance timeout Timeout für Lastenausgleich The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Die Mindestzeitspanne (in Sekunden), für die diese Verbindung im Pool verbleiben soll, bevor sie zerstört wird Replication Replikation Used by SQL Server in Replication Wird von SQL Server bei der Replikation verwendet. Attach DB filename Dateiname der anzufügenden Datenbank Failover partner Failoverpartner The name or network address of the instance of SQL Server that acts as a failover partner Der Name oder die Netzwerkadresse der SQL Server-Instanz, die als Failoverpartner fungiert Multi subnet failover Multisubnetzfailover Multiple active result sets Mehrere aktive Resultsets When true, multiple result sets can be returned and read from one connection Bei Festlegung auf TRUE können mehrere Resultsets zurückgegeben und aus einer Verbindung gelesen werden. Packet size Paketgröße Size in bytes of the network packets used to communicate with an instance of SQL Server Größe der Netzwerkpakete (in Byte), die bei der Kommunikation mit einer Instanz von SQL Server verwendet werden Type system version Typsystemversion Indicates which server type system then provider will expose through the DataReader Gibt an, welches Servertypsystem der Anbieter über den DataReader verfügbar macht. Node Command called without any node passed Es wurde ein Knotenbefehl aufgerufen, ohne dass ein Knoten übergeben wurde. Manage Access Zugriff verwalten Location : Speicherort: Permissions Berechtigungen - Owner – Besitzer - Owning Group – Besitzergruppe Everyone else Beliebige andere Person User Benutzer Group Gruppe Access Zugriff Default Standard Delete Löschen Sticky Fixiert Inherit Defaults Standardwerte erben Read Lesen Write Schreiben Execute Ausführen Add User or Group Benutzer oder Gruppe hinzufügen Enter name Namen eingeben Add Hinzufügen Named Users and Groups Benannte Benutzer und Gruppen Apply Anwenden Apply Recursively Rekursiv anwenden Unexpected error occurred while applying changes : {0} Unerwarteter Fehler beim Anwenden von Änderungen: {0} Local file will be uploaded to HDFS. Lokale Datei wird in HDFS hochgeladen. .......................... Submit Spark Job End ............................ .......................... Ende der Spark-Auftragsübermittlung ............................ Uploading file from local {0} to HDFS folder: {1} Die Datei wird aus dem lokalen Ordner "{0}" in den HDFS-Ordner hochgeladen: {1} Upload file to cluster Succeeded! Die Datei wurde erfolgreich in den Cluster hochgeladen. Upload file to cluster Failed. {0} Fehler beim Hochladen der Datei in den Cluster. {0} Submitting job {0} ... Der Auftrag "{0}" wird übermittelt... The Spark Job has been submitted. Der Spark-Auftrag wurde übermittelt. Spark Job Submission Failed. {0} Fehler bei der Spark-Auftragsübermittlung. {0} YarnUI Url: {0} YarnUI-URL: {0} Spark History Url: {0} Spark-Verlaufs-URL: {0} Get Application Id Failed. {0} Fehler beim Abrufen der Anwendungs-ID. {0} Local file {0} does not existed. Die lokale Datei "{0}" ist nicht vorhanden. No SQL Server Big Data Cluster found. Es wurde kein SQL Server-Big Data-Cluster gefunden. NOTICE: This file has been truncated at {0} for preview. HINWEIS: Diese Datei wurde zur Vorschau bei "{0}" abgeschnitten. The file has been truncated at {0} for preview. Die Datei wurde zur Vorschau bei "{0}" abgeschnitten. $(sync~spin) {0}... $(sync~spin) {0}... Cancel Abbrechen Cancel operation? Vorgang abbrechen? Search Server Names Servernamen suchen No Spark job batch id is returned from response.{0}[Error] {1} In der Antwort wurde keine Batch-ID für Spark-Aufträge zurückgegeben.{0}[Fehler] {1} No log is returned within response.{0}[Error] {1} Innerhalb der Antwort wird kein Protokoll zurückgegeben.{0}[Fehler] {1} All Files Alle Dateien Upload Hochladen Uploading files to HDFS Dateien werden in HDFS hochgeladen Upload operation was canceled Der Uploadvorgang wurde abgebrochen. Error uploading files: {0} Fehler beim Hochladen von Dateien: {0} Creating directory Das Verzeichnis wird erstellt. Operation was canceled Der Vorgang wurde abgebrochen. Error on making directory: {0} Fehler beim Erstellen des Verzeichnisses: {0} Enter directory name Verzeichnisnamen eingeben Error on deleting files: {0} Fehler beim Löschen von Dateien: {0} Are you sure you want to delete this folder and its contents? Möchten Sie diesen Ordner und den zugehörigen Inhalt löschen? Are you sure you want to delete this file? Möchten Sie diese Datei löschen? Saving HDFS Files Die HDFS-Dateien werden gespeichert. Save operation was canceled Der Speichervorgang wurde abgebrochen. Error on saving file: {0} Fehler beim Speichern der Datei: {0} Generating preview Die Vorschau wird generiert. Error on previewing file: {0} Fehler bei der Vorschau der Datei: {0} Error on copying path: {0} Fehler beim Kopieren des Pfads: {0} An unexpected error occurred while opening the Manage Access dialog: {0} Unerwarteter Fehler beim Öffnen des Dialogfelds "Zugriff verwalten": {0} Invalid Data Structure Ungültige Datenstruktur. Unable to create WebHDFS client due to missing options: ${0} Der WebHDFS-Client kann aufgrund von fehlenden Optionen nicht erstellt werden: ${0} '${0}' is undefined. "${0}" ist nicht definiert. Bad Request Fehlerhafte Anforderung. Unauthorized Nicht autorisiert Forbidden Unzulässig Not Found Nicht gefunden Internal Server Error Interner Serverfehler Unknown Error Unbekannter Fehler Unexpected Redirect Unerwartete Umleitung ConnectionInfo is undefined. "ConnectionInfo" ist nicht definiert. ConnectionInfo.options is undefined. "ConnectionInfo.options" ist nicht definiert. Some missing properties in connectionInfo.options: {0} In "connectionInfo.options" fehlen einige Eigenschaften: {0} View Known Issues Bekannte Probleme anzeigen {0} component exited unexpectedly. Please restart Azure Data Studio. Die Komponente "{0}" wurde unerwartet beendet. Starten Sie Azure Data Studio neu. This sample code loads the file into a data frame and shows the first 10 results. Dieser Beispielcode lädt die Datei in einen Datenrahmen und zeigt die ersten 10 Ergebnisse an. Notebooks Notebooks Only .ipynb Notebooks are supported Es werden nur IPYNB-Notebooks unterstützt. Unable to find the file specified Die angegebene Datei wurde nicht gefunden. Applying permission changes recursively under '{0}' Die Berechtigungsänderungen werden unter "{0}" rekursiv angewendet. Permission changes applied successfully. Die Berechtigungsänderungen wurden erfolgreich angewendet. Applying permission changes to '{0}'. Die Berechtigungsänderungen werden auf "{0}" angewendet. Error applying permission changes: {0} Fehler beim Anwenden von Berechtigungsänderungen: {0} Yes Ja No Nein Select other SQL Server Andere SQL Server-Instanz auswählen Please select SQL Server with Big Data Cluster. Wählen Sie SQL Server mit Big Data-Cluster aus. No SQL Server is selected. Es ist keine SQL Server-Instanz ausgewählt. The selected server does not belong to a SQL Server Big Data Cluster Der ausgewählte Server gehört nicht zu einem SQL Server-Big Data-Cluster. Error Get File Path: {0} Fehler beim Abrufen des Dateipfads: {0} Parameters for SparkJobSubmissionDialog is illegal Die Parameter für "SparkJobSubmissionDialog" sind ungültig. New Job Neuer Auftrag Cancel Abbrechen Submit Übermitteln {0} Spark Job Submission: {0} Spark-Auftragsübermittlung: .......................... Submit Spark Job Start .......................... .......................... Start der Spark-Auftragsübermittlung .......................... Parameters for SparkJobSubmissionModel is illegal Die Parameter für "SparkJobSubmissionModel" sind ungültig. submissionArgs is invalid. "submissionArgs" ist ungültig. livyBatchId is invalid. "livyBatchId" ist ungültig. Get Application Id time out. {0}[Log] {1} Timeout beim Abrufen der Anwendungs-ID. {0}[Protokoll] {1} Property localFilePath or hdfsFolderPath is not specified. Die localFilePath- oder hdfsFolderPath-Eigenschaft wurde nicht angegeben. Property Path is not specified. Der Eigenschaftspfad wurde nicht angegeben. GENERAL ALLGEMEIN Enter a name ... Namen eingeben... Job Name Auftragsname Spark Cluster Spark-Cluster Path to a .jar or .py file Pfad zu einer JAR- oder PY-Datei The selected local file will be uploaded to HDFS: {0} Die ausgewählte lokale Datei wird in HDFS hochgeladen: {0} JAR/py File JAR-/PY-Datei Main Class Hauptklasse Arguments Argumente Command line arguments used in your main class, multiple arguments should be split by space. Befehlszeilenargumente, die in Ihrer Hauptklasse verwendet werden. Mehrere Argumente müssen durch Leerzeichen voneinander getrennt werden. Property Job Name is not specified. Der Eigenschaftsauftragsname wurde nicht angegeben. Property JAR/py File is not specified. Die JAR-/PY-Eigenschaftsdatei wurde nicht angegeben. Property Main Class is not specified. Die Hauptklasse der Eigenschaft wurde nicht angegeben. {0} does not exist in Cluster or exception thrown. "{0}" ist nicht im Cluster vorhanden, oder es wurde eine Ausnahme ausgelöst. The specified HDFS file does not exist. Die angegebene HDFS-Datei ist nicht vorhanden. Select Auswählen Error in locating the file due to Error: {0} Fehler beim Suchen der Datei: {0} ADVANCED ERWEITERT Reference Jars JAR-Referenzdateien Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) JAR-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der JAR-Pfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Reference py Files PY-Referenzdateien Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) PY-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Reference Files Referenzdateien Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden. Please provide the password to connect to HDFS: Geben Sie das Kennwort für die Verbindung mit HDFS an: Session for node {0} does not exist Die Sitzung für den Knoten "{0}" ist nicht vorhanden. Error notifying of node change: {0} Fehler bei Benachrichtigung über Knotenänderung: {0} HDFS HDFS Root Stamm Error: {0} Fehler: {0} Cannot delete a connection. Only subfolders and files can be deleted. Eine Verbindung kann nicht gelöscht werden. Nur Unterordner und Dateien können gelöscht werden. Stream operation canceled by the user Der Streamvorgang wurde vom Benutzer abgebrochen. Metrics Dashboard Metrikdashboard Log Search Dashboard Dashboard für Protokollsuche Spark Jobs Management and Monitoring Dashboard Dashboard zum Verwalten und Überwachen von Spark-Aufträgen Spark Diagnostics and Monitoring Dashboard Dashboard zur Spark-Diagnose und -Überwachung Copy Kopieren Application Proxy Anwendungsproxy Cluster Management Service Clusterverwaltungsdienst Gateway to access HDFS files, Spark Gateway für den Zugriff auf HDFS-Dateien, Spark Management Proxy Verwaltungsproxy Management Proxy Verwaltungsproxy SQL Server Master Instance Front-End Front-End der SQL Server-Masterinstanz Metrics Dashboard Metrikdashboard Log Search Dashboard Dashboard für Protokollsuche Spark Diagnostics and Monitoring Dashboard Dashboard zur Spark-Diagnose und -Überwachung Spark Jobs Management and Monitoring Dashboard Dashboard zum Verwalten und Überwachen von Spark-Aufträgen HDFS File System Proxy HDFS-Dateisystemproxy Proxy for running Spark statements, jobs, applications Proxy zum Ausführen von Spark-Anweisungen, -Aufträgen und -Anwendungen {0} Started "{0}" wurde gestartet. Starting {0} "{0}" wird gestartet. Failed to start {0} Fehler beim Starten von "{0}". Installing {0} to {1} "{0}" wird in "{1}" installiert. Installing {0} "{0}" wird installiert. Installed {0} "{0}" wurde installiert. Downloading {0} "{0}" wird heruntergeladen. ({0} KB) ({0} KB) Downloading {0} "{0}" wird heruntergeladen. Done installing {0} Die Installation von {0} wurde abgeschlossen.