Copy Copia Application Proxy Proxy dell'applicazione Cluster Management Service Servizio di gestione cluster Gateway to access HDFS files, Spark Gateway per l'accesso ai file HDFS, Spark Metrics Dashboard Dashboard di metriche Log Search Dashboard Dashboard di ricerca log Proxy for running Spark statements, jobs, applications Proxy per l'esecuzione di istruzioni, processi e applicazioni Spark Management Proxy Proxy di gestione Management Proxy Proxy di gestione Spark Jobs Management and Monitoring Dashboard Dashboard di gestione processi e monitoraggio di Spark SQL Server Master Instance Front-End Front-end dell'istanza master di SQL Server HDFS File System Proxy Proxy del file system HDFS Spark Diagnostics and Monitoring Dashboard Dashboard di diagnostica e monitoraggio di Spark Metrics Dashboard Dashboard di metriche Log Search Dashboard Dashboard di ricerca log Spark Jobs Management and Monitoring Dashboard Dashboard di gestione processi e monitoraggio di Spark Spark Diagnostics and Monitoring Dashboard Dashboard di diagnostica e monitoraggio di Spark Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio deve contattare Azure Key Vault per accedere a una chiave master di colonna per Always Encrypted, ma non è stato selezionato alcun account Azure collegato. Ripetere la query e selezionare un account Azure collegato quando richiesto. Please select a linked Azure account: Selezionare un account Azure collegato: The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. L'account Azure configurato per {0} non ha autorizzazioni sufficienti per Azure Key Vault per accedere alla chiave master di colonna per Always Encrypted. Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio deve contattare Azure Key Vault per accedere a una chiave master di colonna per Always Encrypted, ma non è disponibile alcun account Azure collegato. Aggiungere un account Azure collegato e ripetere la query. Error applying permission changes: {0} Si è verificato un errore durante l'applicazione delle modifiche delle autorizzazioni: {0} Applying permission changes to '{0}'. Applicazione delle modifiche delle autorizzazioni a '{0}'. Applying permission changes recursively under '{0}' Applicazione delle modifiche delle autorizzazioni in modo ricorsivo in '{0}' Permission changes applied successfully. Le modifiche delle autorizzazioni sono state applicate. Bad Request Richiesta non valida Unauthorized Non autorizzato Forbidden Accesso negato Not Found Non trovato Internal Server Error Errore interno del server Invalid Data Structure Struttura dei dati non valida Unable to create WebHDFS client due to missing options: ${0} Non è possibile creare il client WebHDFS a causa di opzioni mancanti: ${0} '${0}' is undefined. '${0}' non è definito. Unexpected Redirect Reindirizzamento imprevisto Unknown Error Errore sconosciuto Node Command called without any node passed Il comando di Node è stato chiamato senza passare alcun nodo Access Accesso Add Aggiungi Add User or Group Aggiungi utente o gruppo Apply Applica Apply Recursively Applica in modo ricorsivo Default Predefinito Default User and Groups Utenti e gruppi predefiniti Delete Elimina Enter name Immettere il nome Unexpected error occurred while applying changes : {0} Si è verificato un errore imprevisto durante l'applicazione delle modifiche: {0} Everyone else Tutti gli altri Execute Esecuzione Group Gruppo Group Gruppo Inherit Defaults Impostazioni predefinite di ereditarietà Location : Percorso : Manage Access Gestisci accesso Named Users and Groups Utenti e gruppi non anonimi Owner Proprietario - Owner - Proprietario - Owning Group - Gruppo proprietario Permissions Autorizzazioni Read Lettura Sticky Bit Sticky bit User Utente User or Group Icon Icona utente o gruppo Write Scrittura Please connect to the Spark cluster before View {0} History. Prima di visualizzare la cronologia {0}, connettersi al cluster Spark. Get Application Id Failed. {0} Il recupero dell'ID applicazione non è riuscito. {0} Local file will be uploaded to HDFS. Il file locale verrà caricato in HDFS. Local file {0} does not existed. Il file locale {0} non esiste. No SQL Server Big Data Cluster found. Non è stato trovato alcun cluster Big Data di SQL Server. Submitting job {0} ... Invio del processo {0}... Uploading file from local {0} to HDFS folder: {1} Caricamento del file dalla cartella locale {0} alla cartella HDFS: {1} Spark History Url: {0} URL della cronologia di Spark: {0} .......................... Submit Spark Job End ............................ .......................... Invia processo Spark - Fine .......................... Spark Job Submission Failed. {0} L'invio del processo Spark non è riuscito. {0} The Spark Job has been submitted. Il processo Spark è stato inviato. Upload file to cluster Failed. {0} Il caricamento del file nel cluster non è riuscito. {0} Upload file to cluster Succeeded! Il caricamento del file nel cluster è riuscito. YarnUI Url: {0} URL dell'interfaccia utente di YARN: {0} This sample code loads the file into a data frame and shows the first 10 results. Questo codice di esempio consente di caricare il file in un frame di dati e visualizzare i primi 10 risultati. An error occurred converting the SQL document to a Notebook. Error : {0} Si è verificato un errore durante la conversione del documento SQL in un notebook. Errore: {0} An error occurred converting the Notebook document to SQL. Error : {0} Si è verificato un errore durante la conversione del documento notebook in SQL. Errore: {0} Could not find the controller endpoint for this instance Non è stato possibile trovare l'endpoint del controller per questa istanza Notebooks Notebooks Only .ipynb Notebooks are supported Sono supportati solo notebook con estensione ipynb Stream operation canceled by the user Operazione di flusso annullata dall'utente Cancel operation? Annullare l'operazione? Cancel Annulla Search Server Names Nomi dei server di ricerca $(sync~spin) {0}... $(sync~spin) {0}... Some missing properties in connectionInfo.options: {0} In connectionInfo.options mancano alcune proprietà: {0} ConnectionInfo.options is undefined. ConnectionInfo.options non è definito. ConnectionInfo is undefined. ConnectionInfo non è definito. NOTICE: This file has been truncated at {0} for preview. AVVISO: questo file è stato troncato alla posizione {0} per l'anteprima. The file has been truncated at {0} for preview. Il file è stato troncato alla posizione {0} per l'anteprima. All Files Tutti i file Error on copying path: {0} Si è verificato un errore durante la copia del percorso: {0} Error on deleting files: {0} Si è verificato un errore durante l'eliminazione dei file: {0} Enter directory name Immettere il nome della directory Upload Carica Creating directory Creazione della directory An unexpected error occurred while opening the Manage Access dialog: {0} Si è verificato un errore imprevisto durante l'apertura della finestra Gestisci accesso: {0} Error on making directory: {0} Si è verificato un errore durante la creazione della directory: {0} Operation was canceled L'operazione è stata annullata Are you sure you want to delete this file? Eliminare questo file? Are you sure you want to delete this folder and its contents? Eliminare questa cartella e il relativo contenuto? Error on previewing file: {0} Si è verificato un errore durante l'anteprima del file: {0} Generating preview Generazione dell'anteprima Save operation was canceled L'operazione di salvataggio è stata annullata Error on saving file: {0} Si è verificato un errore durante il salvataggio del file: {0} Saving HDFS Files Salvataggio dei file HDFS Upload operation was canceled L'operazione di caricamento è stata annullata Error uploading files: {0} Si è verificato un errore durante il caricamento dei file: {0} Uploading files to HDFS Caricamento di file in HDFS Cannot delete a connection. Only subfolders and files can be deleted. Non è possibile eliminare una connessione. È possibile eliminare solo sottocartelle e file. Error: {0} Errore: {0} HDFS HDFS Error notifying of node change: {0} Si è verificato un errore durante la notifica della modifica del nodo: {0} Please provide the password to connect to HDFS: Specificare la password per la connessione a HDFS: Please provide the username to connect to HDFS: Specificare il nome utente per la connessione a HDFS: Root Radice Session for node {0} does not exist La sessione per il nodo {0} non esiste No No Yes The selected server does not belong to a SQL Server Big Data Cluster Il server selezionato non appartiene a un cluster Big Data di SQL Server Select other SQL Server Seleziona un'altra istanza di SQL Server Error Get File Path: {0} Si è verificato un errore durante il recupero del percorso del file: {0} No SQL Server is selected. Non è stata selezionata alcuna istanza di SQL Server. Please select SQL Server with Big Data Cluster. Selezionare SQL Server con il cluster Big Data. ADVANCED AVANZATE Reference Files File di riferimento Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) File da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Reference Jars File JAR di riferimento Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) File con estensione jar da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Reference py Files File py di riferimento Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) File con estensione py da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Configuration Values Valori di configurazione List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Elenco di coppie nome-valore contenenti valori di configurazione Spark. Codificato come dizionario JSON. Esempio: '{"name":"value", "name2":"value2"}'. Driver Cores Core driver Amount of CPU cores to allocate to the driver. Quantità di core CPU da allocare al driver. Driver Memory Memoria driver Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. Quantità di memoria da allocare al driver. Specificare le unità come parte del valore. Esempio: 512 M o 2 G. Executor Cores Core executor Amount of CPU cores to allocate to the executor. Quantità di core CPU da allocare all'executor. Executor Count Conteggio executor Number of instances of the executor to run. Numero di istanze dell'executor da eseguire. Executor Memory Memoria executor Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Quantità di memoria da allocare all'executor. Specificare le unità come parte del valore. Esempio: 512 M o 2 G. Queue Name Nome coda Name of the Spark queue to execute the session in. Nome della coda Spark in cui eseguire la sessione. Arguments Argomenti Command line arguments used in your main class, multiple arguments should be split by space. Argomenti della riga di comando usati nella classe principale. Separare più argomenti con uno spazio. Path to a .jar or .py file Percorso di un file con estensione jar o py GENERAL GENERALE The specified HDFS file does not exist. Il file HDFS specificato non esiste. {0} does not exist in Cluster or exception thrown. {0} non esiste nel cluster oppure è stata generata un'eccezione. Job Name Nome processo Enter a name ... Immetti un nome... The selected local file will be uploaded to HDFS: {0} Il file locale selezionato verrà caricato in HDFS: {0} Main Class Classe principale JAR/py File File JAR/py Property JAR/py File is not specified. Il file JAR/py della proprietà non è specificato. Property Job Name is not specified. Il nome del processo della proprietà non è specificato. Property Main Class is not specified. La classe principale della proprietà non è specificata. Error in locating the file due to Error: {0} Si è verificato un errore durante l'individuazione del file. Errore: {0} Spark Cluster Cluster Spark Select Seleziona Cancel Annulla Submit Invia New Job Nuovo processo Parameters for SparkJobSubmissionDialog is illegal I parametri per SparkJobSubmissionDialog non sono validi .......................... Submit Spark Job Start .......................... .......................... Invia processo Spark - Inizio .......................... {0} Spark Job Submission: Invio processo Spark {0}: Get Application Id time out. {0}[Log] {1} Timeout durante il recupero dell'ID applicazione. {0}[Log] {1} livyBatchId is invalid. livyBatchId non è valido. Property Path is not specified. Il percorso proprietà non è specificato. Parameters for SparkJobSubmissionModel is illegal I parametri per SparkJobSubmissionModel non sono validi Property localFilePath or hdfsFolderPath is not specified. La proprietà localFilePath o hdfsFolderPath non è specificata. submissionArgs is invalid. submissionArgs non è valido. No Spark job batch id is returned from response.{0}[Error] {1} La risposta non ha restituito alcun ID batch di processo Spark.{0}[Errore] {1} No log is returned within response.{0}[Error] {1} Nella risposta non è stato restituito alcun log.{0}[Errore] {1} Error: {0}. Errore: {0}. Please provide the password to connect to the BDC Controller Specificare la password per la connessione al controller BDC {0}Please provide the username to connect to the BDC Controller: {0}Specificare il nome utente per la connessione al controller BDC: Username and password are required Il nome utente e la password sono obbligatori Done installing {0} Installazione di {0} completata Downloading {0} Download di {0} ({0} KB) ({0} KB) Downloading {0} Download di {0} Extracted {0} ({1}/{2}) Estratto {0} ({1}/{2}) Failed to start {0} Non è stato possibile avviare {0} Installed {0} {0} installato Installing {0} to {1} Installazione di {0} in {1} Installing {0} Installazione di {0} {0} Started {0} avviato Starting {0} Avvio di {0} {0} component exited unexpectedly. Please restart Azure Data Studio. Il componente {0} è stato chiuso in modo imprevisto. Riavviare Azure Data Studio. View Known Issues Visualizza problemi noti Edition Edizione Compatibility Level Livello di compatibilità Owner Proprietario Pricing Tier Piano tariffario Type Tipo Version Versione Last backup Ultimo backup Name Nome Size (MB) Dimensioni (MB) Status Stato Enable/disable default JSON formatter (requires restart) Abilita/Disabilita il formattatore JSON predefinito (richiede il riavvio) Associate schemas to JSON files in the current project Associa schemi a file JSON nel progetto corrente An array of file patterns to match against when resolving JSON files to schemas. Matrice di criteri dei file da usare per la ricerca durante la risoluzione di file JSON in schemi. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Criteri dei file che possono contenere '*' da usare per la ricerca durante la risoluzione di file JSON in schemi. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Definizione dello schema per l'URL specificato. È necessario specificare lo schema per evitare accessi all'URL dello schema. A URL to a schema or a relative path to a schema in the current directory URL di uno schema o percorso relativo di uno schema nella directory corrente MSSQL configuration Configurazione di MSSQL Declares the application workload type when connecting to a server Dichiara il tipo di carico di lavoro dell'applicazione durante la connessione a un server Application intent Finalità dell'applicazione The name of the application Nome dell'applicazione Application name Nome dell'applicazione When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Se è true, consente l'utilizzo della funzionalità asincrona nel provider di dati .NET Framework. Asynchronous processing Elaborazione asincrona Attach DB filename Collega nome file del database The name of the primary file, including the full path name, of an attachable database Nome del file primario, incluso il nome del percorso completo, di un database collegabile Attached DB file name Nome file del database collegato Azure Active Directory - Universal with MFA support Azure Active Directory - Universale con supporto MFA Windows Authentication Autenticazione di Windows SQL Login Account di accesso SQL Specifies the method of authenticating with SQL Server Specifica il metodo di autenticazione con SQL Server Authentication type Tipo di autenticazione Enables or disables Always Encrypted for the connection Abilita o disabilita Always Encrypted per la connessione Always Encrypted Always Encrypted Number of attempts to restore connection Numero di tentativi di ripristino della connessione Connect retry count Conteggio tentativi di connessione Delay between attempts to restore connection Ritardo tra tentativi di ripristino della connessione Connect retry interval Intervallo tentativi di connessione The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Intervallo di tempo (in secondi) in cui attendere la connessione al server prima di interrompere il tentativo e generare un errore Connect timeout Timeout di connessione Custom name of the connection Nome personalizzato della connessione Name (optional) Nome (facoltativo) When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Se è true, indica che la connessione deve provenire dal contesto SQL Server. Disponibile solo quando è in esecuzione nel processo SQL Server Context connection Connessione al contesto The SQL Server language record name Nome del record di lingua di SQL Server Current language Lingua corrente The name of the initial catalog or database int the data source Nome del database o del catalogo iniziale nell'origine dati Database Database Azure Attestation Attestazione di Azure Host Guardian Service Servizio Sorveglianza host Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves Specifica un protocollo per l'attestazione di un enclave lato server usato con Always Encrypted con enclave sicuri Attestation Protocol Protocollo di attestazione Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves Specifica un endpoint per l'attestazione di un enclave lato server usato con Always Encrypted con enclavi sicuri Enclave Attestation URL URL di attestazione enclave When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Se è true, SQL Server usa la crittografia SSL per tutti i dati scambiati tra il client e il server, se nel server è installato un certificato Encrypt Crittografa The name or network address of the instance of SQL Server that acts as a failover partner Nome o indirizzo di rete dell'istanza di SQL Server che funge da partner di failover Failover partner Partner di failover Advanced Avanzata Connection Resiliency Resilienza connessione Context Contesto Initialization Inizializzazione Pooling Pooling Replication Replica Security Sicurezza Source Origine The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Tempo minimo (in secondi) in cui la connessione rimane attiva nel pool prima di essere eliminata definitivamente Load balance timeout Timeout durante il bilanciamento del carico The maximum number of connections allowed in the pool Numero massimo di connessioni consentite nel pool Max pool size Dimensioni massime del pool The minimum number of connections allowed in the pool Numero minimo di connessioni consentite nel pool Min pool size Dimensioni minime del pool Multi subnet failover Failover su più subnet When true, multiple result sets can be returned and read from one connection Se è true, possono essere restituiti e letti più set di risultati da un'unica connessione Multiple active result sets Multiple Active Result Set Size in bytes of the network packets used to communicate with an instance of SQL Server Dimensioni in byte dei pacchetti di rete usati per comunicare con un'istanza di SQL Server Packet size Dimensioni del pacchetto Indicates the password to be used when connecting to the data source Indica la password da usare per la connessione all'origine dati Password Password When false, security-sensitive information, such as the password, is not returned as part of the connection Se è false, le informazioni sensibili dal punto di vista della sicurezza, come la password, non vengono restituite nell'ambito della connessione Persist security info Salva in modo permanente le informazioni di sicurezza When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Se è true, l'oggetto connessione viene prelevato dal pool appropriato oppure, se necessario, viene creato e aggiunto al pool appropriato Pooling Pooling Port Porta Used by SQL Server in Replication Usato da SQL Server nella replica Replication Replica Name of the SQL Server instance Nome dell'istanza di SQL Server Server Server When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Se è true (ed encrypt=true), SQL Server usa la crittografia SSL per tutti i dati inviati tra il client e il server senza convalidare il certificato del server Trust server certificate Considera attendibile il certificato del server Indicates which server type system the provider will expose through the DataReader Indica quale sistema di tipi di server il provider esporrà mediante il DataReader Type system version Versione del sistema di tipi Indicates the user ID to be used when connecting to the data source Indica l'ID utente da usare per la connessione all'origine dati User name Nome utente The name of the workstation connecting to SQL Server Nome della workstation che si connette a SQL Server Workstation Id ID workstation Disabled Disabilitato Enabled Abilitato Export Notebook as SQL Esporta notebook come SQL Export SQL as Notebook Esporta SQL come notebook Should column definitions be aligned? Consente di indicare se le definizioni di colonna devono essere allineate Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Consente di indicare se ai tipi di dati deve essere applicata la formattazione in lettere MAIUSCOLE o minuscole oppure se non deve essere applicata alcuna formattazione Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Consente di indicare se alle parole chiave deve essere applicata la formattazione in lettere MAIUSCOLE o minuscole oppure se non deve essere applicata alcuna formattazione should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Consente di indicare se le virgole devono essere inserite all'inizio di ogni istruzione in un elenco, ad esempio ', mycolumn2', anziché alla fine, ad esempio 'mycolumn1,'? Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Consente di indicare se i riferimenti agli oggetti in istruzioni select devono essere suddivisi su righe diverse. Ad esempio per 'SELECT C1, C2 FROM T1' sia C1 che C2 saranno su righe diverse [Optional] Do not show unsupported platform warnings [Facoltativa] Non visualizzare avvisi su piattaforme non supportate Should IntelliSense error checking be enabled Consente di indicare se il controllo degli errori di IntelliSense deve essere abilitato Should IntelliSense be enabled Consente di indicare se IntelliSense deve essere abilitato Should IntelliSense quick info be enabled Consente di indicare se le informazioni rapide di IntelliSense devono essere abilitate Should IntelliSense suggestions be enabled Consente di indicare se i suggerimenti IntelliSense devono essere abilitati Should IntelliSense suggestions be lowercase Consente di indicare se applicare la formattazione in lettere minuscole ai suggerimenti di IntelliSense [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Facoltativa] Registrare l'output di debug nella console (Visualizza -> Output), quindi selezionare il canale di output appropriato dall'elenco a discesa Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Numero massimo di file meno recenti da rimuovere all'avvio per cui è scaduto il tempo impostato con mssql.logRetentionMinutes. I file che non vengono rimossi a causa di questa limitazione verranno rimossi al successivo avvio di Azure Data Studio. Number of minutes to retain log files for backend services. Default is 1 week. Numero di minuti per la conservazione dei file di log per i servizi di back-end. L'impostazione predefinita è 1 settimana. Microsoft SQL Server Microsoft SQL Server Enable Parameterization for Always Encrypted Abilita parametrizzazione per Always Encrypted Enable SET ANSI_DEFAULTS Abilita SET ANSI_DEFAULTS Enable SET ANSI_NULL_DFLT_ON Abilita SET ANSI_NULL_DFLT_ON Enable SET ANSI_NULLS Abilita SET ANSI_NULLS Enable SET ANSI_PADDING Abilita SET ANSI_PADDING Enable SET ANSI_WARNINGS Abilita SET ANSI_WARNINGS Enable SET ARITHABORT option Abilita l'opzione SET ARITHABORT Enable SET CURSOR_CLOSE_ON_COMMIT Abilita SET CURSOR_CLOSE_ON_COMMIT Enable SET DEADLOCK_PRIORITY option Abilita l'opzione SET DEADLOCK_PRIORITY Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' Consente di indicare se le colonne di tipo BIT devono essere visualizzate come numeri (1 o 0). Se è 'false', verranno visualizzate come 'true' o 'false' An execution time-out of 0 indicates an unlimited wait (no time-out) L'impostazione del valore 0 per il timeout di esecuzione indica un'attesa illimitata (nessun timeout) Enable SET IMPLICIT_TRANSACTIONS Abilita SET IMPLICIT_TRANSACTIONS Enable SET LOCK TIMEOUT option (in milliseconds) Abilita l'opzione SET LOCK TIMEOUT (in millisecondi) Number of XML characters to store after running a query Numero di caratteri XML da archiviare dopo l'esecuzione di una query Enable SET NOCOUNT option Abilita l'opzione SET NOCOUNT Enable SET NOEXEC option Abilita l'opzione SET NOEXEC Enable SET PARSEONLY option Abilita l'opzione SET PARSEONLY Enable SET QUERY_GOVERNOR_COST_LIMIT Abilita SET QUERY_GOVERNOR_COST_LIMIT Enable SET QUOTED_IDENTIFIER Abilita SET QUOTED_IDENTIFIER Maximum number of rows to return before the server stops processing your query. Numero massimo di righe da restituire prima che il server arresti l'elaborazione della query. Enable SET STATISTICS IO option Abilita L'opzione SET STATISTICS IO Enable SET STATISTICS TIME option Abilita l'opzione SET STATISTICS TIME Maximum size of text and ntext data returned from a SELECT statement Dimensioni massime dei dati di tipo text e ntext restituiti da un'istruzione SELECT Enable SET TRANSACTION ISOLATION LEVEL option Abilita l'opzione SET TRANSACTION ISOLATION LEVEL Enable SET XACT_ABORT ON option Abilita l'opzione SET XACT_ABORT ON [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Facoltativa] Livello di registrazione per i servizi back-end. Azure Data Studio genera un nome file a ogni avvio e, se il file esiste già, le voci del log vengono accodate a tale file. Per la pulizia dei file di log meno recenti, vedere le impostazioni logRetentionMinutes e logFilesRemovalLimit. Con l'impostazione predefinita di tracingLevel, la quantità di dati registrata non è eccessiva. Se si cambia il livello di dettaglio, la registrazione potrebbe diventare eccessiva e richiedere un notevole spazio su disco per i log. Il livello Error include quello Critical, il livello Warning include quello Error, il livello Information include quello Warning e il livello Verbose include quello Information Copy Path Copia percorso Delete Elimina Manage Access Gestisci accesso New directory Nuova directory Preview Anteprima Save Salva Upload files Carica file New Notebook Nuovo notebook Open Notebook Apri notebook Name Nome Compatibility Level Livello di compatibilità Last Database Backup Ultimo backup del database Last Log Backup Ultimo backup del log Owner Proprietario Recovery Model Modello di recupero Computer Name Nome del computer OS Version Versione del sistema operativo Edition Edizione Version Versione Tasks and information about your SQL Server Big Data Cluster Attività e informazioni sul cluster Big Data di SQL Server SQL Server Big Data Cluster Cluster Big Data di SQL Server Notebooks Notebooks Search: Clear Search Server Results Ricerca: Cancella risultati del server di ricerca Configure Python for Notebooks Configura Python per Notebooks Design Progettazione Service Endpoints Endpoint servizio Install Packages Installa pacchetti New Spark Job Nuovo processo Spark New Table Nuova tabella Cluster Dashboard Dashboard cluster View Spark History Visualizza cronologia di Spark View Yarn History Visualizza cronologia di YARN Search: Servers Ricerca: Server Show Log File Mostra file di log Submit Spark Job Invia processo Spark Tasks Attività