Associate schemas to JSON files in the current projectHiermit werden Schemas zu JSON-Dateien im aktuellen Projekt zugeordnet.A URL to a schema or a relative path to a schema in the current directoryEine URL zu einem Schema oder ein relativer Pfad zu einem Schema im aktuellen VerzeichnisAn array of file patterns to match against when resolving JSON files to schemas.Ein Array aus Dateimustern zum Abgleich beim Auflösen von JSON-Dateien in SchemasA file pattern that can contain '*' to match against when resolving JSON files to schemas.Ein Dateimuster, das "*" enthalten kann, zum Abgleich beim Auflösen von JSON-Dateien in SchemasThe schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Die Schemadefinition für die angegebene URL. Das Schema muss nur angegeben werden, um Zugriffe auf die Schema-URL zu vermeiden.Enable/disable default JSON formatter (requires restart)Standard-JSON-Formatierer aktivieren/deaktivieren (Neustart erforderlich)Upload filesDateien hochladenNew directoryNeues VerzeichnisDeleteLöschenPreviewVorschauSaveSpeichernCopy PathPfad kopierenManage AccessZugriff verwaltenNew NotebookNeues NotebookOpen NotebookNotebook öffnenTasks and information about your SQL Server Big Data ClusterAufgaben und Informationen zu Ihrem SQL Server-Big Data-ClusterSQL Server Big Data ClusterSQL Server-Big Data-ClusterSubmit Spark JobSpark-Auftrag übermittelnNew Spark JobNeuer Spark-AuftragView Spark HistorySpark-Verlauf anzeigenView Yarn HistoryYarn-Verlauf anzeigenTasksAufgabenInstall PackagesPakete installierenConfigure Python for NotebooksPython für Notebooks konfigurierenCluster
DashboardCluster
DashboardSearch: ServersSuche: ServerSearch: Clear Search Server ResultsSuche: Suchserverergebnisse löschenService EndpointsDienstendpunkteNotebooksNotebooksShow Log FileProtokolldatei anzeigenDisabledDeaktiviertEnabledAktiviertExport Notebook as SQLNotebook als SQL exportierenExport SQL as NotebookSQL als Notebook exportierenMSSQL configurationMSSQL-KonfigurationShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'BIT-Spalten als Zahlen (1 oder 0) anzeigen? Bei Festlegung auf FALSE werden BIT-Spalten als TRUE oder FALSE angezeigt.Number of XML characters to store after running a queryAnzahl von XML-Zeichen, die nach dem Ausführen einer Abfrage gespeichert werden sollenShould column definitions be aligned?Sollen Spaltendefinitionen ausgerichtet werden?Should data types be formatted as UPPERCASE, lowercase, or none (not formatted)Gibt an, ob Datentypen in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen.Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Gibt an, ob Schlüsselwörter in Großbuchstaben, Kleinbuchstaben oder gar nicht formatiert werden sollen.should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Gibt an, dass Kommas in einer Liste am Anfang der einzelnen Anweisungen (z. B. ", mycolumn2") und nicht am Ende platziert werden sollen: "mycolumn1,"Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSollen Verweise auf Objekte in einer SELECT-Anweisung in separaten Zeilen angezeigt werden? Beispielsweise werden bei "SELECT C1, C2 FROM T1" C1 und C2 jeweils in separaten Zeilen angezeigt.[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Optional] Protokollieren Sie die Debugausgabe in der Konsole (Ansicht > Ausgabe), und wählen Sie dann in der Dropdownliste den geeigneten Ausgabekanal aus.[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Optional] Protokolliergrad für Back-End-Dienste. Azure Data Studio generiert bei jedem Start einen Dateinamen, und falls die Datei bereits vorhanden ist, werden die Protokolleinträge an diese Datei angehängt. Zur Bereinigung alter Protokolldateien können die Einstellungen "logRetentionMinutes" und "logFilesRemovalLimit" verwendet werden. Bei Verwendung des Standardwerts für "tracingLevel" werden nur wenige Informationen protokolliert. Eine Änderung der Ausführlichkeit kann zu einem umfangreichen Protokollierungsaufkommen und einem hohen Speicherplatzbedarf für die Protokolle führen. "Error" umfasst kritische Meldungen, "Warning" umfasst alle Daten aus "Error" sowie Warnmeldungen, "Information" umfasst alle Daten aus "Warning" sowie Informationsmeldungen, "Verbose" umfasst ausführliche Informationen.Number of minutes to retain log files for backend services. Default is 1 week.Anzahl von Minuten, für die Protokolldateien für Back-End-Dienste aufbewahrt werden sollen. Der Standardwert ist 1 Woche.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Die maximale Anzahl alter Dateien, die beim Start entfernt werden sollen, bei denen der mssql.logRetentionMinutes-Wert abgelaufen ist. Dateien, die aufgrund dieser Einschränkung nicht bereinigt werden, werden beim nächsten Start von Azure Data Studio bereinigt.Should IntelliSense be enabledGibt an, ob IntelliSense aktiviert werden soll.Should IntelliSense error checking be enabledGibt an, ob die IntelliSense-Fehlerüberprüfung aktiviert werden soll.Should IntelliSense suggestions be enabledGibt an, ob IntelliSense-Vorschläge aktiviert werden sollen.Should IntelliSense quick info be enabledGibt an, ob IntelliSense-QuickInfo aktiviert werden soll.Should IntelliSense suggestions be lowercaseGibt an, ob IntelliSense-Vorschläge in Kleinbuchstaben angezeigt werden sollen.Maximum number of rows to return before the server stops processing your query.Maximale Anzahl von Zeilen, die zurückgegeben werden sollen, bevor der Server die Verarbeitung Ihrer Abfrage beendet.Maximum size of text and ntext data returned from a SELECT statementMaximale Größe von text- und ntext-Daten, die von einer SELECT-Anweisung zurückgegeben werdenAn execution time-out of 0 indicates an unlimited wait (no time-out)Ein Timeoutwert von 0 für die Ausführung kennzeichnet einen unbegrenzten Wartevorgang (kein Timeout).Enable SET NOCOUNT optionSET NOCOUNT-Option aktivierenEnable SET NOEXEC optionSET NOEXEC-Option aktivierenEnable SET PARSEONLY optionSET PARSEONLY-Option aktivierenEnable SET ARITHABORT optionSet ARITHABORT-Option aktivierenEnable SET STATISTICS TIME optionSET STATISTICS TIME-Option aktivierenEnable SET STATISTICS IO optionSet STATISTICS IO-Option aktivierenEnable SET XACT_ABORT ON optionSET XACT_ABORT ON-Option aktivierenEnable SET TRANSACTION ISOLATION LEVEL optionSET TRANSACTION ISOLATION LEVEL-Option aktivierenEnable SET DEADLOCK_PRIORITY optionSET DEADLOCK_PRIORITY-Option aktivierenEnable SET LOCK TIMEOUT option (in milliseconds)SET LOCK TIMEOUT-Option aktivieren (in Millisekunden)Enable SET QUERY_GOVERNOR_COST_LIMITSET QUERY_GOVERNOR_COST_LIMIT aktivierenEnable SET ANSI_DEFAULTSSET ANSI_DEFAULTS aktivierenEnable SET QUOTED_IDENTIFIERSET QUOTED_IDENTIFIER aktivierenEnable SET ANSI_NULL_DFLT_ONSET ANSI_NULL_DFLT_ON aktivierenEnable SET IMPLICIT_TRANSACTIONSSET IMPLICIT_TRANSACTIONS aktivierenEnable SET CURSOR_CLOSE_ON_COMMITSET CURSOR_CLOSE_ON_COMMIT aktivierenEnable SET ANSI_PADDINGSET ANSI_PADDING aktivierenEnable SET ANSI_WARNINGSSET ANSI_WARNINGS aktivierenEnable SET ANSI_NULLSSET ANSI_NULLS aktivierenEnable Parameterization for Always EncryptedParametrisierung für Always Encrypted aktivieren[Optional] Do not show unsupported platform warnings[Optional] Keine Anzeige von Warnungen zu nicht unterstützten Plattformen.Recovery ModelWiederherstellungsmodellLast Database BackupLetzte DatenbanksicherungLast Log BackupLetzte ProtokollsicherungCompatibility LevelKompatibilitätsgradOwnerBesitzerVersionVersionEditionEditionComputer NameComputernameOS VersionBetriebssystemversionEditionEditionPricing TierTarifCompatibility LevelKompatibilitätsgradOwnerBesitzerVersionVersionTypeTypMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Name (optional)Custom name of the connectionBenutzerdefinierter Name der VerbindungServerServerName of the SQL Server instanceName der SQL Server-InstanzDatabaseDatenbankThe name of the initial catalog or database int the data sourceDer Name des anfänglichen Katalogs oder der ersten Datenbank in der DatenquelleAuthentication typeAuthentifizierungstypSpecifies the method of authenticating with SQL ServerGibt die Methode für die Authentifizierung bei SQL Server an.SQL LoginSQL-AnmeldungWindows AuthenticationWindows-AuthentifizierungAzure Active Directory - Universal with MFA supportAzure Active Directory: universell mit MFA-UnterstützungUser nameBenutzernameIndicates the user ID to be used when connecting to the data sourceGibt die Benutzer-ID an, die beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll.PasswordKennwortIndicates the password to be used when connecting to the data sourceGibt das Kennwort an, das beim Herstellen einer Verbindung mit der Datenquelle verwendet werden soll.Application intentAnwendungszweckDeclares the application workload type when connecting to a serverDeklariert den Anwendungsauslastungstyp beim Herstellen einer Verbindung mit einem Server.Asynchronous processingAsynchrone VerarbeitungWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderBei Festlegung auf TRUE wird die Verwendung der asynchronen Verarbeitung im .NET Framework-Datenanbieter ermöglicht.Connect timeoutVerbindungstimeoutThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorDie Zeitspanne (in Sekunden), die auf eine Verbindung mit dem Server gewartet wird, bevor der Versuch beendet und ein Fehler generiert wird.Current languageAktuelle SpracheThe SQL Server language record nameDer Datensatzname der SQL Server-SpracheAlways EncryptedAlways EncryptedEnables or disables Always Encrypted for the connectionAktiviert oder deaktiviert Always Encrypted für die Verbindung.Attestation ProtocolNachweisprotokollSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesGibt ein Protokoll zum Nachweis einer serverseitigen Enclave an, die mit Always Encrypted für Secure Enclaves verwendet wird.Azure AttestationAzure AttestationHost Guardian ServiceHost-ÜberwachungsdienstEnclave Attestation URLEnclave-Nachweis-URLSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesGibt einen Endpunkt zum Nachweis einer serverseitigen Enclave an, die mit Always Encrypted für Secure Enclaves verwendet wird.EncryptVerschlüsselnWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedBei Festlegung auf TRUE verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, sofern auf dem Server ein Zertifikat installiert ist.Persist security infoSicherheitsinformationen dauerhaft speichernWhen false, security-sensitive information, such as the password, is not returned as part of the connectionBei Festlegung auf FALSE werden sicherheitsrelevante Informationen, z. B. das Kennwort, nicht als Teil der Verbindung zurückgegeben.Trust server certificateServerzertifikat vertrauenWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateBei Festlegung auf TRUE (und encrypt=true) verwendet SQL Server die SSL-Verschlüsselung für alle zwischen Client und Server gesendeten Daten, ohne das Serverzertifikat zu überprüfen.Attached DB file nameDateiname der angefügten DatenbankThe name of the primary file, including the full path name, of an attachable databaseDer Name der primären Datei einer anfügbaren Datenbank, einschließlich des vollständigen Pfadnamens.Context connectionKontextverbindungWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processBei Festlegung auf TRUE muss die Verbindung aus dem SQL-Serverkontext stammen. Nur verfügbar bei Ausführung im SQL Server-Prozess.PortPortConnect retry countAnzahl der VerbindungswiederholungenNumber of attempts to restore connectionAnzahl der Versuche zur VerbindungswiederherstellungConnect retry intervalIntervall für VerbindungswiederholungDelay between attempts to restore connectionVerzögerung zwischen Versuchen zur VerbindungswiederherstellungApplication nameAnwendungsnameThe name of the applicationDer Name der AnwendungWorkstation IdArbeitsstations-IDThe name of the workstation connecting to SQL ServerDer Name der Arbeitsstation, die eine Verbindung mit SQL Server herstelltPoolingPoolingWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolBei Festlegung auf TRUE wird das Verbindungsobjekt aus dem geeigneten Pool abgerufen oder bei Bedarf erstellt und dem geeigneten Pool hinzugefügt.Max pool sizeMaximale PoolgrößeThe maximum number of connections allowed in the poolDie maximal zulässige Anzahl von Verbindungen im PoolMin pool sizeMinimale PoolgrößeThe minimum number of connections allowed in the poolDie mindestens erforderliche Anzahl von Verbindungen im PoolLoad balance timeoutTimeout für LastenausgleichThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedDie Mindestzeitspanne (in Sekunden), für die diese Verbindung im Pool verbleiben soll, bevor sie zerstört wirdReplicationReplikationUsed by SQL Server in ReplicationWird von SQL Server bei der Replikation verwendet.Attach DB filenameDateiname der anzufügenden DatenbankFailover partnerFailoverpartnerThe name or network address of the instance of SQL Server that acts as a failover partnerDer Name oder die Netzwerkadresse der SQL Server-Instanz, die als Failoverpartner fungiertMulti subnet failoverMultisubnetzfailoverMultiple active result setsMehrere aktive ResultsetsWhen true, multiple result sets can be returned and read from one connectionBei Festlegung auf TRUE können mehrere Resultsets zurückgegeben und aus einer Verbindung gelesen werden.Packet sizePaketgrößeSize in bytes of the network packets used to communicate with an instance of SQL ServerGröße der Netzwerkpakete (in Byte), die bei der Kommunikation mit einer Instanz von SQL Server verwendet werdenType system versionTypsystemversionIndicates which server type system the provider will expose through the DataReaderGibt an, welches Servertypsystem der Anbieter über den DataReader offenlegt.NameNameStatusStatusSize (MB)Größe (MB)Last backupLetzte SicherungNameNameNode Command called without any node passedEs wurde ein Knotenbefehl aufgerufen, ohne dass ein Knoten übergeben wurde.Manage AccessZugriff verwaltenLocation : Speicherort: PermissionsBerechtigungen - Owner– BesitzerOwnerBesitzerGroupGruppe - Owning Group– BesitzergruppeEveryone elseBeliebige andere PersonUserBenutzerGroupGruppeAccessZugriffDefaultStandardDeleteLöschenSticky BitSticky BitInherit DefaultsStandardwerte erbenReadLesenWriteSchreibenExecuteAusführenAdd User or GroupBenutzer oder Gruppe hinzufügenEnter nameNamen eingebenAddHinzufügenNamed Users and GroupsBenannte Benutzer und GruppenDefault User and GroupsStandardbenutzer und -gruppenUser or Group IconSymbol für Benutzer oder GruppeApplyAnwendenApply RecursivelyRekursiv anwendenUnexpected error occurred while applying changes : {0}Unerwarteter Fehler beim Anwenden von Änderungen: {0}Local file will be uploaded to HDFS. Lokale Datei wird in HDFS hochgeladen. .......................... Submit Spark Job End ...................................................... Ende der Spark-Auftragsübermittlung ............................Uploading file from local {0} to HDFS folder: {1}Die Datei wird aus dem lokalen Ordner "{0}" in den HDFS-Ordner hochgeladen: {1}Upload file to cluster Succeeded!Die Datei wurde erfolgreich in den Cluster hochgeladen.Upload file to cluster Failed. {0}Fehler beim Hochladen der Datei in den Cluster. {0}Submitting job {0} ... Der Auftrag "{0}" wird übermittelt... The Spark Job has been submitted.Der Spark-Auftrag wurde übermittelt.Spark Job Submission Failed. {0} Fehler bei der Spark-Auftragsübermittlung. {0} YarnUI Url: {0} YarnUI-URL: {0} Spark History Url: {0} Spark-Verlaufs-URL: {0} Get Application Id Failed. {0}Fehler beim Abrufen der Anwendungs-ID. {0}Local file {0} does not existed. Die lokale Datei "{0}" ist nicht vorhanden. No SQL Server Big Data Cluster found.Es wurde kein SQL Server-Big Data-Cluster gefunden.Please connect to the Spark cluster before View {0} History.Stellen Sie eine Verbindung mit dem Spark-Cluster her, bevor Sie den Verlauf von "{0}" anzeigen.NOTICE: This file has been truncated at {0} for preview. HINWEIS: Diese Datei wurde zur Vorschau bei "{0}" abgeschnitten. The file has been truncated at {0} for preview.Die Datei wurde zur Vorschau bei "{0}" abgeschnitten.$(sync~spin) {0}...$(sync~spin) {0}...CancelAbbrechenCancel operation?Vorgang abbrechen?Search Server NamesServernamen suchenNo Spark job batch id is returned from response.{0}[Error] {1}In der Antwort wurde keine Batch-ID für Spark-Aufträge zurückgegeben.{0}[Fehler] {1}No log is returned within response.{0}[Error] {1}Innerhalb der Antwort wird kein Protokoll zurückgegeben.{0}[Fehler] {1}{0}Please provide the username to connect to the BDC Controller:{0}Geben Sie den Benutzernamen zum Herstellen einer Verbindung mit dem BDC-Controller an:Please provide the password to connect to the BDC ControllerGeben Sie das Kennwort zum Herstellen einer Verbindung mit dem BDC-Controller an.Error: {0}. Fehler: {0}. Username and password are requiredBenutzername und Kennwort sind erforderlich.All FilesAlle DateienUploadHochladenUploading files to HDFSDateien werden in HDFS hochgeladenUpload operation was canceledDer Uploadvorgang wurde abgebrochen.Error uploading files: {0}Fehler beim Hochladen von Dateien: {0}Creating directoryDas Verzeichnis wird erstellt.Operation was canceledDer Vorgang wurde abgebrochen.Error on making directory: {0}Fehler beim Erstellen des Verzeichnisses: {0}Enter directory nameVerzeichnisnamen eingebenError on deleting files: {0}Fehler beim Löschen von Dateien: {0}Are you sure you want to delete this folder and its contents?Möchten Sie diesen Ordner und den zugehörigen Inhalt löschen?Are you sure you want to delete this file?Möchten Sie diese Datei löschen?Saving HDFS FilesDie HDFS-Dateien werden gespeichert.Save operation was canceledDer Speichervorgang wurde abgebrochen.Error on saving file: {0}Fehler beim Speichern der Datei: {0}Generating previewDie Vorschau wird generiert.Error on previewing file: {0}Fehler bei der Vorschau der Datei: {0}Error on copying path: {0}Fehler beim Kopieren des Pfads: {0}An unexpected error occurred while opening the Manage Access dialog: {0}Unerwarteter Fehler beim Öffnen des Dialogfelds "Zugriff verwalten": {0}Invalid Data StructureUngültige Datenstruktur.Unable to create WebHDFS client due to missing options: ${0}Der WebHDFS-Client kann aufgrund von fehlenden Optionen nicht erstellt werden: ${0}'${0}' is undefined."${0}" ist nicht definiert.Bad RequestFehlerhafte Anforderung.UnauthorizedNicht autorisiertForbiddenUnzulässigNot FoundNicht gefundenInternal Server ErrorInterner ServerfehlerUnknown ErrorUnbekannter FehlerUnexpected RedirectUnerwartete UmleitungConnectionInfo is undefined."ConnectionInfo" ist nicht definiert.ConnectionInfo.options is undefined."ConnectionInfo.options" ist nicht definiert.Some missing properties in connectionInfo.options: {0}In "connectionInfo.options" fehlen einige Eigenschaften: {0}View Known IssuesBekannte Probleme anzeigen{0} component exited unexpectedly. Please restart Azure Data Studio.Die Komponente "{0}" wurde unerwartet beendet. Starten Sie Azure Data Studio neu.This sample code loads the file into a data frame and shows the first 10 results.Dieser Beispielcode lädt die Datei in einen Datenrahmen und zeigt die ersten 10 Ergebnisse an.An error occurred converting the SQL document to a Notebook. Error : {0}Fehler beim Konvertieren des SQL-Dokuments in ein Notebook: {0}An error occurred converting the Notebook document to SQL. Error : {0}Fehler beim Konvertieren des Notebook-Dokuments in SQL: {0}NotebooksNotebooksOnly .ipynb Notebooks are supportedEs werden nur IPYNB-Notebooks unterstützt.Could not find the controller endpoint for this instanceDer Controllerendpunkt für diese Instanz wurde nicht gefunden.Applying permission changes recursively under '{0}'Die Berechtigungsänderungen werden unter "{0}" rekursiv angewendet.Permission changes applied successfully.Die Berechtigungsänderungen wurden erfolgreich angewendet.Applying permission changes to '{0}'.Die Berechtigungsänderungen werden auf "{0}" angewendet.Error applying permission changes: {0}Fehler beim Anwenden von Berechtigungsänderungen: {0}YesJaNoNeinSelect other SQL ServerAndere SQL Server-Instanz auswählenPlease select SQL Server with Big Data Cluster.Wählen Sie SQL Server mit Big Data-Cluster aus.No SQL Server is selected.Es ist keine SQL Server-Instanz ausgewählt.The selected server does not belong to a SQL Server Big Data ClusterDer ausgewählte Server gehört nicht zu einem SQL Server-Big Data-Cluster.Error Get File Path: {0}Fehler beim Abrufen des Dateipfads: {0}Parameters for SparkJobSubmissionDialog is illegalDie Parameter für "SparkJobSubmissionDialog" sind ungültig.New JobNeuer AuftragCancelAbbrechenSubmitÜbermitteln{0} Spark Job Submission:{0} Spark-Auftragsübermittlung:.......................... Submit Spark Job Start .................................................... Start der Spark-Auftragsübermittlung ..........................Parameters for SparkJobSubmissionModel is illegalDie Parameter für "SparkJobSubmissionModel" sind ungültig.submissionArgs is invalid. "submissionArgs" ist ungültig. livyBatchId is invalid. "livyBatchId" ist ungültig. Get Application Id time out. {0}[Log] {1}Timeout beim Abrufen der Anwendungs-ID. {0}[Protokoll] {1}Property localFilePath or hdfsFolderPath is not specified. Die localFilePath- oder hdfsFolderPath-Eigenschaft wurde nicht angegeben. Property Path is not specified. Der Eigenschaftspfad wurde nicht angegeben. GENERALALLGEMEINEnter a name ...Namen eingeben...Job NameAuftragsnameSpark ClusterSpark-ClusterPath to a .jar or .py filePfad zu einer JAR- oder PY-DateiThe selected local file will be uploaded to HDFS: {0}Die ausgewählte lokale Datei wird in HDFS hochgeladen: {0}JAR/py FileJAR-/PY-DateiMain ClassHauptklasseArgumentsArgumenteCommand line arguments used in your main class, multiple arguments should be split by space.Befehlszeilenargumente, die in Ihrer Hauptklasse verwendet werden. Mehrere Argumente müssen durch Leerzeichen voneinander getrennt werden.Property Job Name is not specified.Der Eigenschaftsauftragsname wurde nicht angegeben.Property JAR/py File is not specified.Die JAR-/PY-Eigenschaftsdatei wurde nicht angegeben.Property Main Class is not specified.Die Hauptklasse der Eigenschaft wurde nicht angegeben.{0} does not exist in Cluster or exception thrown. "{0}" ist nicht im Cluster vorhanden, oder es wurde eine Ausnahme ausgelöst. The specified HDFS file does not exist. Die angegebene HDFS-Datei ist nicht vorhanden. SelectAuswählenError in locating the file due to Error: {0}Fehler beim Suchen der Datei: {0}ADVANCEDERWEITERTReference JarsJAR-ReferenzdateienJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)JAR-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der JAR-Pfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden.Reference py FilesPY-ReferenzdateienPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)PY-Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden.Reference FilesReferenzdateienFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Dateien, die im Executor-Arbeitsverzeichnis platziert werden sollen. Der Dateipfad muss ein HDFS-Pfad sein. Mehrere Pfade müssen durch ein Semikolon (;) voneinander getrennt werden.Driver MemoryTreiberarbeitsspeicherAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Die Menge an Arbeitsspeicher, die dem Treiber zugeordnet werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel: 512M oder 2G.Driver CoresTreiberkerneAmount of CPU cores to allocate to the driver.Die Anzahl von CPU-Kernen, die dem Treiber zugeordnet werden sollen.Executor MemoryExecutorspeicherAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Die Menge an Arbeitsspeicher, die dem Executor zugeordnet werden soll. Geben Sie Einheiten als Teil des Werts an. Beispiel: 512M oder 2G.Executor CoresExecutorkerneAmount of CPU cores to allocate to the executor.Die Anzahl von CPU-Kernen, die dem Executor zugeordnet werden sollen.Executor CountAnzahl von ExecutorsNumber of instances of the executor to run.Anzahl der auszuführenden Executorinstanzen.Queue NameWarteschlangennameName of the Spark queue to execute the session in.Name der Spark-Warteschlange, in der die Sitzung ausgeführt wird.Configuration ValuesKonfigurationswerteList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Liste von Name-Wert-Paaren, die Spark-Konfigurationswerte enthalten. Als JSON-Wörterbuch codiert. Beispiel: '{"name":"wert", "name2":"wert2"}'.Please provide the username to connect to HDFS:Geben Sie den Benutzernamen zum Herstellen einer Verbindung mit HDFS an:Please provide the password to connect to HDFS:Geben Sie das Kennwort für die Verbindung mit HDFS an:Session for node {0} does not existDie Sitzung für den Knoten "{0}" ist nicht vorhanden.Error notifying of node change: {0}Fehler bei Benachrichtigung über Knotenänderung: {0}HDFSHDFSRootStammError: {0}Fehler: {0}Cannot delete a connection. Only subfolders and files can be deleted.Eine Verbindung kann nicht gelöscht werden. Nur Unterordner und Dateien können gelöscht werden.Stream operation canceled by the userDer Streamvorgang wurde vom Benutzer abgebrochen.Metrics DashboardMetrikdashboardLog Search DashboardDashboard für ProtokollsucheSpark Jobs Management and Monitoring DashboardDashboard zum Verwalten und Überwachen von Spark-AufträgenSpark Diagnostics and Monitoring DashboardDashboard zur Spark-Diagnose und -ÜberwachungCopyKopierenApplication ProxyAnwendungsproxyCluster Management ServiceClusterverwaltungsdienstGateway to access HDFS files, SparkGateway für den Zugriff auf HDFS-Dateien, SparkManagement ProxyVerwaltungsproxyManagement ProxyVerwaltungsproxySQL Server Master Instance Front-EndFront-End der SQL Server-MasterinstanzMetrics DashboardMetrikdashboardLog Search DashboardDashboard für ProtokollsucheSpark Diagnostics and Monitoring DashboardDashboard zur Spark-Diagnose und -ÜberwachungSpark Jobs Management and Monitoring DashboardDashboard zum Verwalten und Überwachen von Spark-AufträgenHDFS File System ProxyHDFS-DateisystemproxyProxy for running Spark statements, jobs, applicationsProxy zum Ausführen von Spark-Anweisungen, -Aufträgen und -Anwendungen{0} Started"{0}" wurde gestartet.Starting {0}"{0}" wird gestartet.Failed to start {0}Fehler beim Starten von "{0}".Installing {0} to {1}"{0}" wird in "{1}" installiert.Installing {0}"{0}" wird installiert.Installed {0}"{0}" wurde installiert.Downloading {0}"{0}" wird heruntergeladen.({0} KB)({0} KB)Downloading {0}"{0}" wird heruntergeladen.Done installing {0}Die Installation von {0} wurde abgeschlossen.Extracted {0} ({1}/{2}){0} extrahiert ({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio muss Azure Key Vault kontaktieren, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen, aber es ist kein verknüpftes Azure-Konto verfügbar. Fügen Sie ein verknüpftes Azure-Konto hinzu, und wiederholen Sie die Abfrage.Please select a linked Azure account:Wählen Sie ein verknüpftes Azure-Konto aus:Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio muss Azure Key Vault kontaktieren, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen, aber es wurde kein verknüpftes Azure-Konto ausgewählt. Wiederholen Sie die Abfrage, und wählen Sie bei Aufforderung ein verknüpftes Azure-Konto aus.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.Das konfigurierte Azure-Konto für "{0}" verfügt nicht über ausreichende Berechtigungen für Azure Key Vault, um auf einen Spaltenhauptschlüssel für Always Encrypted zuzugreifen.