Associate schemas to JSON files in the current projectSchemas zu JSON-Dateien im aktuellen Projekt zuordnenA URL to a schema or a relative path to a schema in the current directoryEine URL zu einem Schema oder ein relativer Pfad zu einem Schema im aktuellen VerzeichnisAn array of file patterns to match against when resolving JSON files to schemas.Ein Array von Dateimustern, mit dem beim Auflösen von JSON-Dateien zu Schemas ein Abgleich erfolgt.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Ein Dateimuster, das "*" enthalten kann, mit dem beim Auflösen von JSON-Dateien zu Schemas ein Abgleich erfolgt.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Die Schemadefinition für die angegebene URL. Das Schema muss nur angegeben werden, um Zugriffe auf die Schema-URL zu vermeiden.Enable/disable default JSON formatter (requires restart)Standard-JSON-Formatierer aktivieren/deaktivieren (Neustart erforderlich)Upload filesDateien hochladenNew directoryNeues VerzeichnisDeleteLöschenPreviewVorschauSaveSpeichernCopy PathPfad kopierenNew NotebookNeues NotebookOpen NotebookNotebook öffnenTasks and information about your SQL Server big data clusterAufgaben und Informationen zu Ihrem SQL Server-Big Data-ClusterSQL Server big data clusterSQL Server-Big Data-ClusterSubmit Spark JobSpark-Auftrag übermittelnNew Spark JobNeuer Spark-AuftragView Spark HistorySpark-Verlauf anzeigenView Yarn HistoryYARN-Verlauf anzeigenTasksTasksInstall PackagesPakete installierenConfigure Python for NotebooksPython für Notebooks konfigurierenSearch: ServersSuche: ServerSearch: Clear Search Server ResultsSuche: Suchserverergebnisse löschenService EndpointsDienstendpunkteMSSQL configurationMSSQL-KonfigurationShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'BIT-Spalten als Zahlen (1 oder 0) anzeigen? Wenn nicht, werden BIT-Spalten als "wahr" oder "falsch" angezeigtShould column definitions be aligned?Sollen Spaltendefinitionen ausgerichtet werden?Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)Sollen Datentypen in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werdenShould keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Sollen Schlüsselwörter in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werdenshould commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Sollen Kommas am Anfang jeder Anweisung in einer Liste platziert werden, z. B. ', mycolumn2' amstatt am Ende, z. B. 'mycolumn1,'Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSollten Verweise auf Objekte in einer SELECT-Anweisung in separaten Zeilen angezeigt werden? Z. B. werden bei "SELECT C1, C2 FROM T1" C1 und C2 jeweils in separaten Zeilen angezeigt[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Optional] Protokollieren Sie die Debugausgabe in der Konsole (Ansicht > Ausgabe), und wählen Sie dann den entsprechenden Ausgabekanal aus der Dropdownliste aus.[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Optional] Protokollebene für Back-End-Dienste. Azure Data Studio generiert bei jedem Start einen Dateinamen, und wenn die Datei bereits vorhanden ist, werden die Protokolleinträge an diese Datei angehängt. Zur Bereinigung alter Protokolldateien finden Sie die Einstellungen logRetentionMinutes und logFilesRemovalLimit. Beim Standard-tracingLevel wird nicht viel protokolliert. Das Ändern der Ausführlichkeit kann zu umfangreicher Protokollierung und hohen Speicherplatzanforderungen für die Protokolle führen. "Error" beinhaltet "Critical", "Warning" beinhaltet "Error", "Information beinhaltet "Warning", und "Verbose" beinhaltet "Information".Number of minutes to retain log files for backend services. Default is 1 week.Anzahl von Minuten, für die Protokolldateien für Back-End-Dienste aufbewahrt werden sollen. Der Standardwert ist 1 Woche.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Die maximale Anzahl alter Dateien, die beim Start entfernt werden sollen, bei denen die mssql.logRetentionMinutes abgelaufen sind. Dateien, die aufgrund dieser Einschränkung nicht bereinigt werden, werden beim nächsten Start von Azure Data Studio bereinigt.[Optional] Do not show unsupported platform warnings[Optional] Keine Warnungen zu nicht unterstützten Plattformen anzeigenRecovery ModelWiederherstellungsmodellLast Database BackupLetzte DatenbanksicherungLast Log BackupLetzte ProtokollsicherungCompatibility LevelKompatibilitätsgradOwnerBesitzerVersionVersionEditionEditionComputer NameComputernameOS VersionBetriebssystemversionEditionEditionPricing TierTarifCompatibility LevelKompatibilitätsgradOwnerBesitzerVersionVersionTypeTypMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Name (optional)Custom name of the connectionBenutzerdefinierter Name der VerbindungServerServerName of the SQL Server instanceName der SQL Server-InstanzDatabaseDatenbankThe name of the initial catalog or database int the data sourceDer Name des ursprünglichen Katalogs oder der ersten Datenbank in der DatenquelleAuthentication typeAuthentifizierungstypSpecifies the method of authenticating with SQL ServerGibt die Methode der Authentifizierung bei SQL Server an.SQL LoginSQL-LoginWindows AuthenticationWindows-AuthentifizierungAzure Active Directory - Universal with MFA supportAzure Active Directory: universell mit MFA-UnterstützungUser nameBenutzernameIndicates the user ID to be used when connecting to the data sourceGibt die Benutzer-ID an, die beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll.PasswordKennwortIndicates the password to be used when connecting to the data sourceGibt das Kennwort an, das beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll.Application intentAnwendungszweckDeclares the application workload type when connecting to a serverDeklariert den Anwendungsworkloadtyp beim Herstellen einer Verbindung mit einem Server.Asynchronous processingAsynchrone VerarbeitungWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderBei TRUE wird die Verwendung der asynchronen Funktionalität im .NET Framework-Datenanbieter ermöglicht.Connect timeoutVerbindungstimeoutThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorDie Zeitspanne (in Sekunden), die auf eine Verbindung mit dem Server gewartet werden muss, bevor der Versuch beendet und ein Fehler generiert wirdCurrent languageAktuelle SpracheThe SQL Server language record nameDer Datensatzname der SQL Server-SpracheColumn encryptionSpaltenverschlüsselungDefault column encryption setting for all the commands on the connectionStandardeinstellung für die Spaltenverschlüsselung für alle Befehle in der VerbindungEncryptVerschlüsselnWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedBei TRUE verwendet SQL Server die SSL-Verschlüsselung für alle Daten, die zwischen Client und Server gesendet werden, wenn auf dem Server ein Zertifikat installiert ist.Persist security infoSicherheitsinformationen dauerhaft speichernWhen false, security-sensitive information, such as the password, is not returned as part of the connectionBei FALSE werden sicherheitsrelevante Informationen, z. B. das Kennwort, nicht als Teil der Verbindung zurückgegeben.Trust server certificateServerzertifikat vertrauenWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateBei TRUE (und encrypt=true) verwendet SQL Server die SSL-Verschlüsselung für alle Daten, die zwischen Client und Server gesendet werden, ohne das Serverzertifikat zu überprüfen.Attached DB file nameAngefügter DB-DateinameThe name of the primary file, including the full path name, of an attachable databaseDer Name der primären Datei einer anfügbaren Datenbank, einschließlich des vollständigen PfadnamensContext connectionKontextverbindungWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processBei TRUE wird angegeben, dass die Verbindung aus dem SQL Server-Kontext stammen muss. Nur verfügbar bei Ausführung im SQL Server-Prozess.PortPortConnect retry countAnzahl von VerbindungswiederholungenNumber of attempts to restore connectionAnzahl der Versuche zur VerbindungswiederherstellungConnect retry intervalIntervall für VerbindungswiederholungenDelay between attempts to restore connectionVerzögerung zwischen Versuchen zur VerbindungswiederherstellungApplication nameAnwendungsnameThe name of the applicationDer Name der AnwendungWorkstation IdArbeitsstations-IDThe name of the workstation connecting to SQL ServerDer Name der Arbeitsstation, die eine Verbindung mit SQL Server herstelltPoolingPoolingWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolBei TRUE wird das Verbindungsobjekt aus dem entsprechenden Pool abgerufen oder bei Bedarf erstellt und dem entsprechenden Pool hinzugefügt.Max pool sizeMaximale PoolgrößeThe maximum number of connections allowed in the poolDie maximale Anzahl der im Pool zulässigen VerbindungenMin pool sizeMindestgröße für PoolThe minimum number of connections allowed in the poolDie Mindestanzahl der im Pool zulässigen VerbindungenLoad balance timeoutTimeout beim LastenausgleichThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedDie Mindestzeit (in Sekunden), die diese Verbindung im Pool verbleibt, bevor sie zerstört wirdReplicationReplikationUsed by SQL Server in ReplicationWird von SQL Server bei der Replikation verwendet.Attach DB filenameDB-Dateinamen anfügenFailover partnerFailoverpartnerThe name or network address of the instance of SQL Server that acts as a failover partnerDer Name oder die Netzwerkadresse der Instanz von SQL Server, die als Failoverpartner fungiertMulti subnet failoverMultisubnetzfailoverMultiple active result setsMehrere aktive ResultsetsWhen true, multiple result sets can be returned and read from one connectionBei TRUE können mehrere Resultsets über eine Verbindung zurückgegeben und gelesen werden.Packet sizePaketgrößeSize in bytes of the network packets used to communicate with an instance of SQL ServerGröße der Netzwerkpakete (in Byte), die für die Kommunikation mit einer Instanz von SQL Server verwendet werdenType system versionTypSystemversionIndicates which server type system then provider will expose through the DataReaderGibt an, welches Servertypsystem vom Anbieter über den DataReader verfügbar gemacht wird.No Spark job batch id is returned from response.{0}[Error] {1}Von der Antwort wurde keine Batch-ID für Spark-Aufträge zurückgegeben.{0}[Fehler] {1}No log is returned within response.{0}[Error] {1}Innerhalb der Antwort wird kein Protokoll zurückgegeben.{0}[Fehler] {1}Parameters for SparkJobSubmissionModel is illegalParameter für SparkJobSubmissionModel sind ungültig.submissionArgs is invalid. submissionArgs ist ungültig. livyBatchId is invalid. livyBatchId ist ungültig. Get Application Id time out. {0}[Log] {1}Timeout beim Abrufen der Anwendungs-ID. {0}[Protokoll] {1}Property localFilePath or hdfsFolderPath is not specified. Die localFilePath- oder hdfsFolderPath-Eigenschaft wurde nicht angegeben.Property Path is not specified. Der Eigenschaftspfad wurde nicht angegeben.Parameters for SparkJobSubmissionDialog is illegalParameter für SparkJobSubmissionDialog sind ungültig.New JobNeuer AuftragCancelAbbrechenSubmitSenden{0} Spark Job Submission:{0} Spark-Auftragsübermittlung:.......................... Submit Spark Job Start .................................................... Start der Spark-Auftragsübermittlung ..........................GENERALAllgemeinEnter a name ...Namen eingeben...Job NameAuftragsnameSpark ClusterSpark-ClusterPath to a .jar or .py filePfad zu einer JAR- oder PY-DateiThe selected local file will be uploaded to HDFS: {0}Die ausgewählte lokale Datei wird in HDFS hochgeladen: {0}JAR/py FileJAR-/PY-DateiMain ClassHauptklasseArgumentsArgumenteCommand line arguments used in your main class, multiple arguments should be split by space.Befehlszeilenargumente, die in Ihrer Hauptklasse verwendet werden. Mehrere Argumente müssen durch Leerzeichen voneinander getrennt werden.Property Job Name is not specified.Der Eigenschaftsauftragsname wurde nicht angegeben.Property JAR/py File is not specified.Die JAR-/PY-Datei der Eigenschaft wurde nicht angegeben.Property Main Class is not specified.Die Hauptklasse der Eigenschaft wurde nicht angegeben.{0} does not exist in Cluster or exception thrown. "{0}" ist im Cluster nicht vorhanden, oder eine Ausnahme wurde ausgelöst.The specified HDFS file does not exist. Die angegebene HDFS-Datei ist nicht vorhanden. SelectAuswählenError in locating the file due to Error: {0}Fehler beim Auffinden der Datei aufgrund des folgenden Fehlers: {0}ADVANCEDErweitertReference JarsReferenz-JARsJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)JARs, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der JAR-Pfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch Semikolon (;) getrennt werden.Reference py FilesReferenz-Py-DateienPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)PY-Dateien, die im Arbeitsverzeichnis des Executors abgelegt werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen per Semikolon (;) voneinander getrennt werden.Reference FilesReferenzdateienFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Dateien, die im Arbeitsverzeichnis des Executors abgelegt werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch Semikolon (;) voneinander getrennt werden.Please select SQL Server with big data cluster. Wählen Sie SQL Server mit Big Data-Cluster aus.No Sql Server is selected.Es ist keine SQL Server-Instanz ausgewählt.Error Get File Path: {0}Fehler beim Abrufen des Dateipfads: {0}... Creating {0}... {0} wird erstelltProcess exited with code {0}Der Prozess wurde mit Code {0} beendet.Invalid Data StructureUngültige DatenstrukturUnable to create WebHDFS client due to missing options: ${0}WebHDFS-Client kann aufgrund fehlender Optionen nicht erstellt werden: ${0}'${0}' is undefined."${0}" ist nicht definiert.Bad RequestFehlerhafte Anforderung.UnauthorizedNicht autorisiertForbiddenUnzulässigNot FoundNicht gefundenInternal Server ErrorInterner Serverfehler.Unknown ErrorUnbekannter FehlerUnexpected RedirectUnerwartete UmleitungPlease provide the password to connect to HDFS:Geben Sie das Kennwort für die Verbindung mit HDFS an:Session for node {0} does not existDie Sitzung für den Knoten "{0}" ist nicht vorhanden.Error notifying of node change: {0}Fehler bei Benachrichtigung über Knotenänderung: {0}RootStammHDFSHDFSError: {0}Fehler: {0}Cannot delete a connection. Only subfolders and files can be deleted.Eine Verbindung kann nicht gelöscht werden. Nur Unterordner und Dateien können gelöscht werden.All FilesAlle DateienUploadHochladenUploading files to HDFSDateien werden in HDFS hochgeladenUpload operation was canceledDer Uploadvorgang wurde abgebrochen.Error uploading files: {0}Fehler beim Hochladen von Dateien: {0}Creating directoryDas Verzeichnis wird erstellt.Operation was canceledDer Vorgang wurde abgebrochen.Error on making directory: {0}Fehler beim Erstellen des Verzeichnisses: {0}Enter directory nameVerzeichnisnamen eingebenError on deleting files: {0}Fehler beim Löschen von Dateien: {0}Are you sure you want to delete this folder and its contents?Möchten Sie diesen Ordner und seinen Inhalt löschen?Are you sure you want to delete this file?Möchten Sie diese Datei löschen?Saving HDFS FilesHDFS-Dateien werden gespeichert.Save operation was canceledDer Speichervorgang wurde abgebrochen.Error on saving file: {0}Fehler beim Speichern der Datei: {0}Generating previewDie Vorschau wird generiert.Error on previewing file: {0}Fehler bei der Vorschau der Datei: {0}Error on copying path: {0}Fehler beim Kopieren des Pfads: {0}NOTICE: This file has been truncated at {0} for preview. HINWEIS: Diese Datei wurde zur Vorschau bei "{0}" abgeschnitten.The file has been truncated at {0} for preview.Die Datei wurde zur Vorschau bei "{0}" abgeschnitten.ConnectionInfo is undefined.ConnectionInfo ist nicht definiert.ConnectionInfo.options is undefined."ConnectionInfo.options" ist nicht definiert.Some missing properties in connectionInfo.options: {0}Einige Eigenschaften fehlen in connectionInfo.options: {0}$(sync~spin) {0}...$(sync~spin) {0}...CancelAbbrechenCancel operation?Vorgang abbrechen?Search Server NamesServer-Namen suchenStream operation canceled by the userDer Streamvorgang wurde vom Benutzer abgebrochen.YesJaNoNeinThis sample code loads the file into a data frame and shows the first 10 results.Dieser Beispielcode lädt die Datei in einen Datenrahmen und zeigt die ersten 10 Ergebnisse an.Metrics DashboardMetrikdashboardLog Search DashboardDashboard für ProtokollsucheSpark Job MonitoringÜberwachung von Spark-AufträgenSpark Resource ManagementSpark-RessourcenverwaltungCopyKopierenApplication ProxyAnwendungsproxyCluster Management ServiceClusterverwaltungsdienstHDFS and SparkHDFS und SparkManagement ProxyVerwaltungsproxyManagement ProxyVerwaltungsproxyNotebooksNotebooksOnly .ipynb Notebooks are supportedEs werden nur IPYNB-Notebooks unterstützt.Unable to find the file specifiedDie angegebene Datei wurde nicht gefunden.Installing {0} service to {1}Der Dienst {0} wird unter {1} installiert.Installing ServiceDienst wird installiertInstalledINSTALLIERTDownloading {0}{0} wird heruntergeladen.({0} KB)({0} KB)Downloading ServiceDownload-DienstDone!Fertig!Node Command called without any node passedEs wurde ein Knotenbefehl aufgerufen, ohne dass ein Knoten übergeben wurde.Local file will be uploaded to HDFS. Lokale Datei wird in HDFS hochgeladen........................... Submit Spark Job End ...................................................... Ende der Spark-Auftragsübermittlung ............................Uploading file from local {0} to HDFS folder: {1}Die Datei wird aus dem lokalen Ordner "{0}" in den HDFS-Ordner hochgeladen: {1}Upload file to cluster Succeeded!Die Datei wurde erfolgreich in den Cluster hochgeladen.Upload file to cluster Failed. {0}Fehler beim Hochladen der Datei in den Cluster. {0}Submitting job {0} ... Der Auftrag "{0}" wird übermittelt...The Spark Job has been submitted.Der Spark-Auftrag wurde übermittelt.Spark Job Submission Failed. {0} Fehler bei der Spark-Auftragsübermittlung. {0}YarnUI Url: {0} YarnUI-URL: {0}Spark History Url: {0} Spark-Verlaufs-URL: {0}Get Application Id Failed. {0}Fehler beim Abrufen der Anwendungs-ID. {0}Local file {0} does not existed. Die lokale Datei "{0}" ist nicht vorhanden.No Sql Server big data cluster found.Es wurde kein SQL Server-Big Data-Cluster gefunden.