Associate schemas to JSON files in the current projectAssocia schemi a file JSON nel progetto correnteA URL to a schema or a relative path to a schema in the current directoryURL di uno schema o percorso relativo di uno schema nella directory correnteAn array of file patterns to match against when resolving JSON files to schemas.Matrice di criteri dei file da usare per la ricerca durante la risoluzione di file JSON in schemi.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Criteri dei file che possono contenere '*' da usare per la ricerca durante la risoluzione di file JSON in schemi.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Definizione dello schema per l'URL specificato. È necessario specificare lo schema per evitare accessi all'URL dello schema.Enable/disable default JSON formatter (requires restart)Abilita/Disabilita il formattatore JSON predefinito (richiede il riavvio)Upload filesCarica fileNew directoryNuova directoryDeleteEliminaPreviewAnteprimaSaveSalvaCopy PathCopia percorsoManage AccessGestisci accessoNew NotebookNuovo notebookOpen NotebookApri notebookTasks and information about your SQL Server Big Data ClusterAttività e informazioni sul cluster Big Data di SQL ServerSQL Server Big Data ClusterCluster Big Data di SQL ServerSubmit Spark JobInvia processo SparkNew Spark JobNuovo processo SparkView Spark HistoryVisualizza cronologia di SparkView Yarn HistoryVisualizza cronologia di YARNTasksAttivitàInstall PackagesInstalla pacchettiConfigure Python for NotebooksConfigura Python per NotebooksCluster
DashboardDashboard
clusterSearch: ServersRicerca: ServerSearch: Clear Search Server ResultsRicerca: Cancella risultati del server di ricercaService EndpointsEndpoint servizioNotebooksNotebooksShow Log FileMostra file di logDisabledDisabilitatoEnabledAbilitatoExport Notebook as SQLEsporta notebook come SQLExport SQL as NotebookEsporta SQL come notebookMSSQL configurationConfigurazione di MSSQLShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Consente di indicare se le colonne di tipo BIT devono essere visualizzate come numeri (1 o 0). Se è 'false', verranno visualizzate come 'true' o 'false'Number of XML characters to store after running a queryNumero di caratteri XML da archiviare dopo l'esecuzione di una queryShould column definitions be aligned?Consente di indicare se le definizioni di colonna devono essere allineateShould data types be formatted as UPPERCASE, lowercase, or none (not formatted)Consente di indicare se ai tipi di dati deve essere applicata la formattazione in lettere MAIUSCOLE o minuscole oppure se non deve essere applicata alcuna formattazioneShould keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Consente di indicare se alle parole chiave deve essere applicata la formattazione in lettere MAIUSCOLE o minuscole oppure se non deve essere applicata alcuna formattazioneshould commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Consente di indicare se le virgole devono essere inserite all'inizio di ogni istruzione in un elenco, ad esempio ', mycolumn2', anziché alla fine, ad esempio 'mycolumn1,'?Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesConsente di indicare se i riferimenti agli oggetti in istruzioni select devono essere suddivisi su righe diverse. Ad esempio per 'SELECT C1, C2 FROM T1' sia C1 che C2 saranno su righe diverse[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Facoltativa] Registrare l'output di debug nella console (Visualizza -> Output), quindi selezionare il canale di output appropriato dall'elenco a discesa[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Facoltativa] Livello di registrazione per i servizi back-end. Azure Data Studio genera un nome file a ogni avvio e, se il file esiste già, le voci del log vengono accodate a tale file. Per la pulizia dei file di log meno recenti, vedere le impostazioni logRetentionMinutes e logFilesRemovalLimit. Con l'impostazione predefinita di tracingLevel, la quantità di dati registrata non è eccessiva. Se si cambia il livello di dettaglio, la registrazione potrebbe diventare eccessiva e richiedere un notevole spazio su disco per i log. Il livello Error include quello Critical, il livello Warning include quello Error, il livello Information include quello Warning e il livello Verbose include quello InformationNumber of minutes to retain log files for backend services. Default is 1 week.Numero di minuti per la conservazione dei file di log per i servizi di back-end. L'impostazione predefinita è 1 settimana.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Numero massimo di file meno recenti da rimuovere all'avvio per cui è scaduto il tempo impostato con mssql.logRetentionMinutes. I file che non vengono rimossi a causa di questa limitazione verranno rimossi al successivo avvio di Azure Data Studio.Should IntelliSense be enabledConsente di indicare se IntelliSense deve essere abilitatoShould IntelliSense error checking be enabledConsente di indicare se il controllo degli errori di IntelliSense deve essere abilitatoShould IntelliSense suggestions be enabledConsente di indicare se i suggerimenti IntelliSense devono essere abilitatiShould IntelliSense quick info be enabledConsente di indicare se le informazioni rapide di IntelliSense devono essere abilitateShould IntelliSense suggestions be lowercaseConsente di indicare se applicare la formattazione in lettere minuscole ai suggerimenti di IntelliSenseMaximum number of rows to return before the server stops processing your query.Numero massimo di righe da restituire prima che il server arresti l'elaborazione della query.Maximum size of text and ntext data returned from a SELECT statementDimensioni massime dei dati di tipo text e ntext restituiti da un'istruzione SELECTAn execution time-out of 0 indicates an unlimited wait (no time-out)L'impostazione del valore 0 per il timeout di esecuzione indica un'attesa illimitata (nessun timeout)Enable SET NOCOUNT optionAbilita l'opzione SET NOCOUNTEnable SET NOEXEC optionAbilita l'opzione SET NOEXECEnable SET PARSEONLY optionAbilita l'opzione SET PARSEONLYEnable SET ARITHABORT optionAbilita l'opzione SET ARITHABORTEnable SET STATISTICS TIME optionAbilita l'opzione SET STATISTICS TIMEEnable SET STATISTICS IO optionAbilita L'opzione SET STATISTICS IOEnable SET XACT_ABORT ON optionAbilita l'opzione SET XACT_ABORT ONEnable SET TRANSACTION ISOLATION LEVEL optionAbilita l'opzione SET TRANSACTION ISOLATION LEVELEnable SET DEADLOCK_PRIORITY optionAbilita l'opzione SET DEADLOCK_PRIORITYEnable SET LOCK TIMEOUT option (in milliseconds)Abilita l'opzione SET LOCK TIMEOUT (in millisecondi)Enable SET QUERY_GOVERNOR_COST_LIMITAbilita SET QUERY_GOVERNOR_COST_LIMITEnable SET ANSI_DEFAULTSAbilita SET ANSI_DEFAULTSEnable SET QUOTED_IDENTIFIERAbilita SET QUOTED_IDENTIFIEREnable SET ANSI_NULL_DFLT_ONAbilita SET ANSI_NULL_DFLT_ONEnable SET IMPLICIT_TRANSACTIONSAbilita SET IMPLICIT_TRANSACTIONSEnable SET CURSOR_CLOSE_ON_COMMITAbilita SET CURSOR_CLOSE_ON_COMMITEnable SET ANSI_PADDINGAbilita SET ANSI_PADDINGEnable SET ANSI_WARNINGSAbilita SET ANSI_WARNINGSEnable SET ANSI_NULLSAbilita SET ANSI_NULLSEnable Parameterization for Always EncryptedAbilita parametrizzazione per Always Encrypted[Optional] Do not show unsupported platform warnings[Facoltativa] Non visualizzare avvisi su piattaforme non supportateRecovery ModelModello di recuperoLast Database BackupUltimo backup del databaseLast Log BackupUltimo backup del logCompatibility LevelLivello di compatibilitàOwnerProprietarioVersionVersioneEditionEdizioneComputer NameNome del computerOS VersionVersione del sistema operativoEditionEdizionePricing TierPiano tariffarioCompatibility LevelLivello di compatibilitàOwnerProprietarioVersionVersioneTypeTipoMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Nome (facoltativo)Custom name of the connectionNome personalizzato della connessioneServerServerName of the SQL Server instanceNome dell'istanza di SQL ServerDatabaseDatabaseThe name of the initial catalog or database int the data sourceNome del database o del catalogo iniziale nell'origine datiAuthentication typeTipo di autenticazioneSpecifies the method of authenticating with SQL ServerSpecifica il metodo di autenticazione con SQL ServerSQL LoginAccount di accesso SQLWindows AuthenticationAutenticazione di WindowsAzure Active Directory - Universal with MFA supportAzure Active Directory - Universale con supporto MFAUser nameNome utenteIndicates the user ID to be used when connecting to the data sourceIndica l'ID utente da usare per la connessione all'origine datiPasswordPasswordIndicates the password to be used when connecting to the data sourceIndica la password da usare per la connessione all'origine datiApplication intentFinalità dell'applicazioneDeclares the application workload type when connecting to a serverDichiara il tipo di carico di lavoro dell'applicazione durante la connessione a un serverAsynchronous processingElaborazione asincronaWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderSe è true, consente l'utilizzo della funzionalità asincrona nel provider di dati .NET Framework.Connect timeoutTimeout di connessioneThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorIntervallo di tempo (in secondi) in cui attendere la connessione al server prima di interrompere il tentativo e generare un erroreCurrent languageLingua correnteThe SQL Server language record nameNome del record di lingua di SQL ServerAlways EncryptedAlways EncryptedEnables or disables Always Encrypted for the connectionAbilita o disabilita Always Encrypted per la connessioneAttestation ProtocolProtocollo di attestazioneSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesSpecifica un protocollo per l'attestazione di un enclave lato server usato con Always Encrypted con enclave sicuriAzure AttestationAttestazione di AzureHost Guardian ServiceServizio Sorveglianza hostEnclave Attestation URLURL di attestazione enclaveSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesSpecifica un endpoint per l'attestazione di un enclave lato server usato con Always Encrypted con enclavi sicuriEncryptCrittografaWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedSe è true, SQL Server usa la crittografia SSL per tutti i dati scambiati tra il client e il server, se nel server è installato un certificatoPersist security infoSalva in modo permanente le informazioni di sicurezzaWhen false, security-sensitive information, such as the password, is not returned as part of the connectionSe è false, le informazioni sensibili dal punto di vista della sicurezza, come la password, non vengono restituite nell'ambito della connessioneTrust server certificateConsidera attendibile il certificato del serverWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateSe è true (ed encrypt=true), SQL Server usa la crittografia SSL per tutti i dati inviati tra il client e il server senza convalidare il certificato del serverAttached DB file nameNome file del database collegatoThe name of the primary file, including the full path name, of an attachable databaseNome del file primario, incluso il nome del percorso completo, di un database collegabileContext connectionConnessione al contestoWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processSe è true, indica che la connessione deve provenire dal contesto SQL Server. Disponibile solo quando è in esecuzione nel processo SQL ServerPortPortaConnect retry countConteggio tentativi di connessioneNumber of attempts to restore connectionNumero di tentativi di ripristino della connessioneConnect retry intervalIntervallo tentativi di connessioneDelay between attempts to restore connectionRitardo tra tentativi di ripristino della connessioneApplication nameNome dell'applicazioneThe name of the applicationNome dell'applicazioneWorkstation IdID workstationThe name of the workstation connecting to SQL ServerNome della workstation che si connette a SQL ServerPoolingPoolingWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolSe è true, l'oggetto connessione viene prelevato dal pool appropriato oppure, se necessario, viene creato e aggiunto al pool appropriatoMax pool sizeDimensioni massime del poolThe maximum number of connections allowed in the poolNumero massimo di connessioni consentite nel poolMin pool sizeDimensioni minime del poolThe minimum number of connections allowed in the poolNumero minimo di connessioni consentite nel poolLoad balance timeoutTimeout durante il bilanciamento del caricoThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedTempo minimo (in secondi) in cui la connessione rimane attiva nel pool prima di essere eliminata definitivamenteReplicationReplicaUsed by SQL Server in ReplicationUsato da SQL Server nella replicaAttach DB filenameCollega nome file del databaseFailover partnerPartner di failoverThe name or network address of the instance of SQL Server that acts as a failover partnerNome o indirizzo di rete dell'istanza di SQL Server che funge da partner di failoverMulti subnet failoverFailover su più subnetMultiple active result setsMultiple Active Result SetWhen true, multiple result sets can be returned and read from one connectionSe è true, possono essere restituiti e letti più set di risultati da un'unica connessionePacket sizeDimensioni del pacchettoSize in bytes of the network packets used to communicate with an instance of SQL ServerDimensioni in byte dei pacchetti di rete usati per comunicare con un'istanza di SQL ServerType system versionVersione del sistema di tipiIndicates which server type system the provider will expose through the DataReaderIndica quale sistema di tipi di server il provider esporrà mediante il DataReaderNameNomeStatusStatoSize (MB)Dimensioni (MB)Last backupUltimo backupNameNomeNode Command called without any node passedIl comando di Node è stato chiamato senza passare alcun nodoManage AccessGestisci accessoLocation : Percorso : PermissionsAutorizzazioni - Owner - ProprietarioOwnerProprietarioGroupGruppo - Owning Group - Gruppo proprietarioEveryone elseTutti gli altriUserUtenteGroupGruppoAccessAccessoDefaultPredefinitoDeleteEliminaSticky BitSticky bitInherit DefaultsImpostazioni predefinite di ereditarietàReadLetturaWriteScritturaExecuteEsecuzioneAdd User or GroupAggiungi utente o gruppoEnter nameImmettere il nomeAddAggiungiNamed Users and GroupsUtenti e gruppi non anonimiDefault User and GroupsUtenti e gruppi predefinitiUser or Group IconIcona utente o gruppoApplyApplicaApply RecursivelyApplica in modo ricorsivoUnexpected error occurred while applying changes : {0}Si è verificato un errore imprevisto durante l'applicazione delle modifiche: {0}Local file will be uploaded to HDFS. Il file locale verrà caricato in HDFS. .......................... Submit Spark Job End ...................................................... Invia processo Spark - Fine ..........................Uploading file from local {0} to HDFS folder: {1}Caricamento del file dalla cartella locale {0} alla cartella HDFS: {1}Upload file to cluster Succeeded!Il caricamento del file nel cluster è riuscito.Upload file to cluster Failed. {0}Il caricamento del file nel cluster non è riuscito. {0}Submitting job {0} ... Invio del processo {0}... The Spark Job has been submitted.Il processo Spark è stato inviato.Spark Job Submission Failed. {0} L'invio del processo Spark non è riuscito. {0} YarnUI Url: {0} URL dell'interfaccia utente di YARN: {0} Spark History Url: {0} URL della cronologia di Spark: {0} Get Application Id Failed. {0}Il recupero dell'ID applicazione non è riuscito. {0}Local file {0} does not existed. Il file locale {0} non esiste. No SQL Server Big Data Cluster found.Non è stato trovato alcun cluster Big Data di SQL Server.Please connect to the Spark cluster before View {0} History.Prima di visualizzare la cronologia {0}, connettersi al cluster Spark.NOTICE: This file has been truncated at {0} for preview. AVVISO: questo file è stato troncato alla posizione {0} per l'anteprima. The file has been truncated at {0} for preview.Il file è stato troncato alla posizione {0} per l'anteprima.$(sync~spin) {0}...$(sync~spin) {0}...CancelAnnullaCancel operation?Annullare l'operazione?Search Server NamesNomi dei server di ricercaNo Spark job batch id is returned from response.{0}[Error] {1}La risposta non ha restituito alcun ID batch di processo Spark.{0}[Errore] {1}No log is returned within response.{0}[Error] {1}Nella risposta non è stato restituito alcun log.{0}[Errore] {1}{0}Please provide the username to connect to the BDC Controller:{0}Specificare il nome utente per la connessione al controller BDC:Please provide the password to connect to the BDC ControllerSpecificare la password per la connessione al controller BDCError: {0}. Errore: {0}. Username and password are requiredIl nome utente e la password sono obbligatoriAll FilesTutti i fileUploadCaricaUploading files to HDFSCaricamento di file in HDFSUpload operation was canceledL'operazione di caricamento è stata annullataError uploading files: {0}Si è verificato un errore durante il caricamento dei file: {0}Creating directoryCreazione della directoryOperation was canceledL'operazione è stata annullataError on making directory: {0}Si è verificato un errore durante la creazione della directory: {0}Enter directory nameImmettere il nome della directoryError on deleting files: {0}Si è verificato un errore durante l'eliminazione dei file: {0}Are you sure you want to delete this folder and its contents?Eliminare questa cartella e il relativo contenuto?Are you sure you want to delete this file?Eliminare questo file?Saving HDFS FilesSalvataggio dei file HDFSSave operation was canceledL'operazione di salvataggio è stata annullataError on saving file: {0}Si è verificato un errore durante il salvataggio del file: {0}Generating previewGenerazione dell'anteprimaError on previewing file: {0}Si è verificato un errore durante l'anteprima del file: {0}Error on copying path: {0}Si è verificato un errore durante la copia del percorso: {0}An unexpected error occurred while opening the Manage Access dialog: {0}Si è verificato un errore imprevisto durante l'apertura della finestra Gestisci accesso: {0}Invalid Data StructureStruttura dei dati non validaUnable to create WebHDFS client due to missing options: ${0}Non è possibile creare il client WebHDFS a causa di opzioni mancanti: ${0}'${0}' is undefined.'${0}' non è definito.Bad RequestRichiesta non validaUnauthorizedNon autorizzatoForbiddenAccesso negatoNot FoundNon trovatoInternal Server ErrorErrore interno del serverUnknown ErrorErrore sconosciutoUnexpected RedirectReindirizzamento imprevistoConnectionInfo is undefined.ConnectionInfo non è definito.ConnectionInfo.options is undefined.ConnectionInfo.options non è definito.Some missing properties in connectionInfo.options: {0}In connectionInfo.options mancano alcune proprietà: {0}View Known IssuesVisualizza problemi noti{0} component exited unexpectedly. Please restart Azure Data Studio.Il componente {0} è stato chiuso in modo imprevisto. Riavviare Azure Data Studio.This sample code loads the file into a data frame and shows the first 10 results.Questo codice di esempio consente di caricare il file in un frame di dati e visualizzare i primi 10 risultati.An error occurred converting the SQL document to a Notebook. Error : {0}Si è verificato un errore durante la conversione del documento SQL in un notebook. Errore: {0}An error occurred converting the Notebook document to SQL. Error : {0}Si è verificato un errore durante la conversione del documento notebook in SQL. Errore: {0}NotebooksNotebooksOnly .ipynb Notebooks are supportedSono supportati solo notebook con estensione ipynbCould not find the controller endpoint for this instanceNon è stato possibile trovare l'endpoint del controller per questa istanzaApplying permission changes recursively under '{0}'Applicazione delle modifiche delle autorizzazioni in modo ricorsivo in '{0}'Permission changes applied successfully.Le modifiche delle autorizzazioni sono state applicate.Applying permission changes to '{0}'.Applicazione delle modifiche delle autorizzazioni a '{0}'.Error applying permission changes: {0}Si è verificato un errore durante l'applicazione delle modifiche delle autorizzazioni: {0}YesSìNoNoSelect other SQL ServerSeleziona un'altra istanza di SQL ServerPlease select SQL Server with Big Data Cluster.Selezionare SQL Server con il cluster Big Data.No SQL Server is selected.Non è stata selezionata alcuna istanza di SQL Server.The selected server does not belong to a SQL Server Big Data ClusterIl server selezionato non appartiene a un cluster Big Data di SQL ServerError Get File Path: {0}Si è verificato un errore durante il recupero del percorso del file: {0}Parameters for SparkJobSubmissionDialog is illegalI parametri per SparkJobSubmissionDialog non sono validiNew JobNuovo processoCancelAnnullaSubmitInvia{0} Spark Job Submission:Invio processo Spark {0}:.......................... Submit Spark Job Start .................................................... Invia processo Spark - Inizio ..........................Parameters for SparkJobSubmissionModel is illegalI parametri per SparkJobSubmissionModel non sono validisubmissionArgs is invalid. submissionArgs non è valido. livyBatchId is invalid. livyBatchId non è valido. Get Application Id time out. {0}[Log] {1}Timeout durante il recupero dell'ID applicazione. {0}[Log] {1}Property localFilePath or hdfsFolderPath is not specified. La proprietà localFilePath o hdfsFolderPath non è specificata. Property Path is not specified. Il percorso proprietà non è specificato. GENERALGENERALEEnter a name ...Immetti un nome...Job NameNome processoSpark ClusterCluster SparkPath to a .jar or .py filePercorso di un file con estensione jar o pyThe selected local file will be uploaded to HDFS: {0}Il file locale selezionato verrà caricato in HDFS: {0}JAR/py FileFile JAR/pyMain ClassClasse principaleArgumentsArgomentiCommand line arguments used in your main class, multiple arguments should be split by space.Argomenti della riga di comando usati nella classe principale. Separare più argomenti con uno spazio.Property Job Name is not specified.Il nome del processo della proprietà non è specificato.Property JAR/py File is not specified.Il file JAR/py della proprietà non è specificato.Property Main Class is not specified.La classe principale della proprietà non è specificata.{0} does not exist in Cluster or exception thrown. {0} non esiste nel cluster oppure è stata generata un'eccezione. The specified HDFS file does not exist. Il file HDFS specificato non esiste. SelectSelezionaError in locating the file due to Error: {0}Si è verificato un errore durante l'individuazione del file. Errore: {0}ADVANCEDAVANZATEReference JarsFile JAR di riferimentoJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)File con estensione jar da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;)Reference py FilesFile py di riferimentoPy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)File con estensione py da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;)Reference FilesFile di riferimentoFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)File da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;)Driver MemoryMemoria driverAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Quantità di memoria da allocare al driver. Specificare le unità come parte del valore. Esempio: 512 M o 2 G.Driver CoresCore driverAmount of CPU cores to allocate to the driver.Quantità di core CPU da allocare al driver.Executor MemoryMemoria executorAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Quantità di memoria da allocare all'executor. Specificare le unità come parte del valore. Esempio: 512 M o 2 G.Executor CoresCore executorAmount of CPU cores to allocate to the executor.Quantità di core CPU da allocare all'executor.Executor CountConteggio executorNumber of instances of the executor to run.Numero di istanze dell'executor da eseguire.Queue NameNome codaName of the Spark queue to execute the session in.Nome della coda Spark in cui eseguire la sessione.Configuration ValuesValori di configurazioneList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Elenco di coppie nome-valore contenenti valori di configurazione Spark. Codificato come dizionario JSON. Esempio: '{"name":"value", "name2":"value2"}'.Please provide the username to connect to HDFS:Specificare il nome utente per la connessione a HDFS:Please provide the password to connect to HDFS:Specificare la password per la connessione a HDFS:Session for node {0} does not existLa sessione per il nodo {0} non esisteError notifying of node change: {0}Si è verificato un errore durante la notifica della modifica del nodo: {0}HDFSHDFSRootRadiceError: {0}Errore: {0}Cannot delete a connection. Only subfolders and files can be deleted.Non è possibile eliminare una connessione. È possibile eliminare solo sottocartelle e file.Stream operation canceled by the userOperazione di flusso annullata dall'utenteMetrics DashboardDashboard di metricheLog Search DashboardDashboard di ricerca logSpark Jobs Management and Monitoring DashboardDashboard di gestione processi e monitoraggio di SparkSpark Diagnostics and Monitoring DashboardDashboard di diagnostica e monitoraggio di SparkCopyCopiaApplication ProxyProxy dell'applicazioneCluster Management ServiceServizio di gestione clusterGateway to access HDFS files, SparkGateway per l'accesso ai file HDFS, SparkManagement ProxyProxy di gestioneManagement ProxyProxy di gestioneSQL Server Master Instance Front-EndFront-end dell'istanza master di SQL ServerMetrics DashboardDashboard di metricheLog Search DashboardDashboard di ricerca logSpark Diagnostics and Monitoring DashboardDashboard di diagnostica e monitoraggio di SparkSpark Jobs Management and Monitoring DashboardDashboard di gestione processi e monitoraggio di SparkHDFS File System ProxyProxy del file system HDFSProxy for running Spark statements, jobs, applicationsProxy per l'esecuzione di istruzioni, processi e applicazioni Spark{0} Started{0} avviatoStarting {0}Avvio di {0}Failed to start {0}Non è stato possibile avviare {0}Installing {0} to {1}Installazione di {0} in {1}Installing {0}Installazione di {0}Installed {0}{0} installatoDownloading {0}Download di {0}({0} KB)({0} KB)Downloading {0}Download di {0}Done installing {0}Installazione di {0} completataExtracted {0} ({1}/{2})Estratto {0} ({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio deve contattare Azure Key Vault per accedere a una chiave master di colonna per Always Encrypted, ma non è disponibile alcun account Azure collegato. Aggiungere un account Azure collegato e ripetere la query.Please select a linked Azure account:Selezionare un account Azure collegato:Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio deve contattare Azure Key Vault per accedere a una chiave master di colonna per Always Encrypted, ma non è stato selezionato alcun account Azure collegato. Ripetere la query e selezionare un account Azure collegato quando richiesto.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.L'account Azure configurato per {0} non ha autorizzazioni sufficienti per Azure Key Vault per accedere alla chiave master di colonna per Always Encrypted.