Associate schemas to JSON files in the current project Associa schemi a file JSON nel progetto corrente A URL to a schema or a relative path to a schema in the current directory URL di uno schema o percorso relativo di uno schema nella directory corrente An array of file patterns to match against when resolving JSON files to schemas. Matrice di criteri dei file da usare per la ricerca durante la risoluzione di file JSON in schemi. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Criteri dei file che possono contenere '*' da usare per la ricerca durante la risoluzione di file JSON in schemi. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Definizione dello schema per l'URL specificato. È necessario specificare lo schema per evitare accessi all'URL dello schema. Enable/disable default JSON formatter (requires restart) Abilita/Disabilita il formattatore JSON predefinito (richiede il riavvio) Upload files Carica file New directory Nuova directory Delete Elimina Preview Anteprima Save Salva Copy Path Copia percorso New Notebook Nuovo notebook Open Notebook Apri notebook Tasks and information about your SQL Server big data cluster Attività e informazioni sul cluster Big Data di SQL Server SQL Server big data cluster Cluster Big Data di SQL Server Submit Spark Job Invia processo Spark New Spark Job Nuovo processo Spark View Spark History Visualizza cronologia di Spark View Yarn History Visualizza cronologia di YARN Tasks Attività Install Packages Installa pacchetti Configure Python for Notebooks Configura Python per Notebooks Search: Servers Ricerca: Server Search: Clear Search Server Results Ricerca: Cancella risultati del server di ricerca Service Endpoints Endpoint servizio MSSQL configuration Configurazione di MSSQL Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' Le colonne di tipo BIT devono essere visualizzati come numeri (1 o 0)? Se 'false', verranno visualizzate come 'true' o 'false' Should column definitions be aligned? Le definizioni di colonna devono essere allineate? Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) I tipi di dato devono essere formattati come maiuscole, minuscole, o nessuno (non formattato)? Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Le parole chiave devono essere formattate come maiuscole, minuscole, o nessuno (non formattato)? should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' Le virgole devono essere collocate all'inizio di ogni istruzione in una lista, ad esempio ', mycolumn2' anziché alla fine, ad esempio 'mycolumn1,'? Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines I riferimenti agli oggetti in istruzioni select dovrebbero essere suddivisi in righe separate? Ad esempio per 'SELECT C1, C2 FROM T1' sia C1 che C2 saranno su righe diverse [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Facoltativo] Registrare l'output di debut nella console (Visualizza -> Output), quindi selezionare il canale di output appropriato dall'elenco a discesa [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Facoltativo] Livello di registrazione per i servizi back-end. Azure Data Studio genera un nome file a ogni avvio e, se il file esiste già, le voci del log vengono aggiunte a tale file. Per la pulizia dei file di log meno recenti, vedere le impostazioni logRetentionMinutes e logFilesRemovalLimit. Con l'impostazione predefinita di tracingLevel, la quantità di dati registrata non è eccessiva. Se si cambia il livello di dettaglio, la registrazione potrebbe diventare eccessiva e richiedere un notevole spazio su disco per i log. Il livello Error include quello Critical, il livello Warning include quello Error, il livello Information include quello Warning e il livello Verbose include quello Information Number of minutes to retain log files for backend services. Default is 1 week. Numero di minuti per la conservazione dei file di log per i servizi di back-end. L'impostazione predefinita è 1 settimana. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Numero massimo di file meno recenti da rimuovere all'avvio per cui è scaduto il tempo impostato con mssql.logRetentionMinutes. I file che non vengono rimossi a causa di questa limitazione verranno rimossi al successivo avvio di Azure Data Studio. [Optional] Do not show unsupported platform warnings [Facoltativo] Non visualizzare avvisi su piattaforme non supportate Recovery Model Modello di ripristino Last Database Backup Ultimo Backup del Database Last Log Backup Ultimo Backup del Log Compatibility Level Livello di compatibilità Owner Proprietario Version Versione Edition Edizione Computer Name Nome computer OS Version Versione OS Edition Edizione Pricing Tier Piano tariffario Compatibility Level Livello di compatibilità Owner Proprietario Version Versione Type Tipo Microsoft SQL Server Microsoft SQL Server Name (optional) Nome (facoltativo) Custom name of the connection Nome personalizzato della connessione Server Server Name of the SQL Server instance Nome dell'istanza di SQL Server Database Database The name of the initial catalog or database int the data source Nome del database o del catalogo iniziale nell'origine dati Authentication type Tipo di autenticazione Specifies the method of authenticating with SQL Server Specifica il metodo di autenticazione con SQL Server SQL Login Account di accesso SQL Windows Authentication Autenticazione di Windows Azure Active Directory - Universal with MFA support Azure Active Directory - Universale con supporto MFA User name Nome utente Indicates the user ID to be used when connecting to the data source Indica l'ID utente da usare per la connessione all'origine dati Password Password Indicates the password to be used when connecting to the data source Indica la password da usare per la connessione all'origine dati Application intent Finalità dell'applicazione Declares the application workload type when connecting to a server Dichiara il tipo di carico di lavoro dell'applicazione durante la connessione a un server Asynchronous processing Elaborazione asincrona When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Se è true, consente l'utilizzo della funzionalità asincrona nel provider di dati .NET Framework. Connect timeout Timeout di connessione The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Intervallo di tempo (in secondi) in cui attendere la connessione al server prima di interrompere il tentativo e generare un errore Current language Lingua corrente The SQL Server language record name Nome del record di lingua di SQL Server Column encryption Crittografia di colonna Default column encryption setting for all the commands on the connection Impostazione di crittografia di colonna predefinita per tutti i comandi della connessione Encrypt Crittografa When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Se è true, SQL Server usa la crittografia SSL per tutti i dati scambiati tra il client e il server, se nel server è installato un certificato Persist security info Salva in modo permanente le informazioni di sicurezza When false, security-sensitive information, such as the password, is not returned as part of the connection Se è false, le informazioni sensibili dal punto di vista della sicurezza, come la password, non vengono restituite nell'ambito della connessione Trust server certificate Considera attendibile il certificato del server When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Se è true (e encrypt=true), SQL Server usa la crittografia SSL per tutti i dati inviati tra il client e il server senza convalidare il certificato del server Attached DB file name Nome file DB collegato The name of the primary file, including the full path name, of an attachable database Nome del file primario, incluso il nome completo del percorso, di un database collegabile Context connection Connessione al contesto When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Se è true, indica che la connessione deve provenire dal contesto SQL Server. Disponibile solo quando è in esecuzione nel processo SQL Server. Port Porta Connect retry count Conteggio tentativi di connessione Number of attempts to restore connection Numero di tentativi di ripristino della connessione Connect retry interval Intervallo tentativi di connessione Delay between attempts to restore connection Ritardo tra tentativi di ripristino della connessione Application name Nome dell'applicazione The name of the application Nome dell'applicazione Workstation Id ID workstation The name of the workstation connecting to SQL Server Nome della workstation che si connette a SQL Server Pooling Pooling When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Se è true, l'oggetto connessione viene prelevato dal pool appropriato oppure, se necessario, viene creato e aggiunto al pool appropriato Max pool size Dimensioni massime del pool The maximum number of connections allowed in the pool Numero massimo di connessioni consentite nel pool Min pool size Dimensioni minime del pool The minimum number of connections allowed in the pool Numero minimo di connessioni consentite nel pool Load balance timeout Timeout durante il bilanciamento del carico The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Tempo minimo (in secondi) in cui la connessione rimane attiva nel pool prima di essere eliminata definitivamente Replication Replica Used by SQL Server in Replication Usato da SQL Server nella replica Attach DB filename Collega nome file DB Failover partner Partner di failover The name or network address of the instance of SQL Server that acts as a failover partner Nome o indirizzo di rete dell'istanza di SQL Server che funge da partner di failover Multi subnet failover Failover su più subnet Multiple active result sets Multiple Active Result Set When true, multiple result sets can be returned and read from one connection Se è true, possono essere restituiti e letti più set di risultati da un'unica connessione Packet size Dimensioni del pacchetto Size in bytes of the network packets used to communicate with an instance of SQL Server Dimensioni in byte dei pacchetti di rete usati per comunicare con un'istanza di SQL Server Type system version Digita versione del sistema Indicates which server type system then provider will expose through the DataReader Indica il sistema di tipi di server esposto dal provider tramite l'oggetto DataReader No Spark job batch id is returned from response.{0}[Error] {1} La risposta non ha restituito alcun ID batch di processo Spark.{0}[Errore] {1} No log is returned within response.{0}[Error] {1} Nella risposta non è stato restituito alcun log.{0}[Errore] {1} Parameters for SparkJobSubmissionModel is illegal I parametri per SparkJobSubmissionModel non sono validi submissionArgs is invalid. submissionArgs non è valido. livyBatchId is invalid. livyBatchId non è valido. Get Application Id time out. {0}[Log] {1} Timeout del recupero dell'ID applicazione. {0}[Log] {1} Property localFilePath or hdfsFolderPath is not specified. La proprietà localFilePath o hdfsFolderPath non è specificata. Property Path is not specified. Il percorso proprietà non è specificato. Parameters for SparkJobSubmissionDialog is illegal I parametri per SparkJobSubmissionDialog non sono validi New Job Nuovo processo Cancel Annulla Submit Invia {0} Spark Job Submission: Invio processo Spark {0}: .......................... Submit Spark Job Start .......................... .......................... Invia processo Spark - Inizio .......................... GENERAL GENERALE Enter a name ... Immettere un nome... Job Name Nome Job Spark Cluster Cluster Spark Path to a .jar or .py file Percorso di un file con estensione jar o py The selected local file will be uploaded to HDFS: {0} Il file locale selezionato verrà caricato in HDFS: {0} JAR/py File File JAR/py Main Class Classe principale Arguments Argomenti Command line arguments used in your main class, multiple arguments should be split by space. Argomenti della riga di comando usati nella classe principale. Separare più argomenti con uno spazio. Property Job Name is not specified. Il nome del processo della proprietà non è specificato. Property JAR/py File is not specified. Il file JAR/py delle proprietà non è specificato. Property Main Class is not specified. La classe principale della proprietà non è specificata. {0} does not exist in Cluster or exception thrown. {0} non esiste nel cluster oppure è stata generata un'eccezione. The specified HDFS file does not exist. Il file HDFS specificato non esiste. Select Seleziona Error in locating the file due to Error: {0} Si è verificato un errore durante l'individuazione del file. Errore: {0} ADVANCED AVANZATE Reference Jars File JAR di riferimento Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) File con estensione jar da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Reference py Files File di riferimento py Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) File con estensione py da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Reference Files File di riferimento Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) File da inserire nella directory di lavoro dell'executor. Il percorso dei file deve essere di tipo HDFS. Separare più percorsi con punti e virgola (;) Please select SQL Server with big data cluster. Selezionare SQL Server con Cluster Big Data. No Sql Server is selected. Non è stata selezionata alcuna istanza di SQL Server. Error Get File Path: {0} Si è verificato un errore durante il recupero del percorso del file: {0} ... Creating {0} ... Creazione di {0} Process exited with code {0} Processo terminato con codice {0} Invalid Data Structure Struttura dei dati non valida Unable to create WebHDFS client due to missing options: ${0} Non è possibile creare il client WebHDFS a causa di opzioni mancanti: ${0} '${0}' is undefined. '${0}' non è definito. Bad Request Richiesta non valida Unauthorized Non autorizzato Forbidden Accesso negato Not Found Non trovato Internal Server Error Errore interno del server Unknown Error Errore sconosciuto Unexpected Redirect Reindirizzamento imprevisto Please provide the password to connect to HDFS: Specificare la password per la connessione a HDFS: Session for node {0} does not exist La sessione per il nodo {0} non esiste Error notifying of node change: {0} Si è verificato un errore durante la notifica della modifica del nodo: {0} Root Radice HDFS HDFS Error: {0} Errore: {0} Cannot delete a connection. Only subfolders and files can be deleted. Non è possibile eliminare una connessione. È possibile eliminare solo sottocartelle e file. All Files Tutti i file Upload Carica Uploading files to HDFS Caricamento di file in HDFS Upload operation was canceled L'operazione di caricamento è stata annullata Error uploading files: {0} Si è verificato un errore durante il caricamento dei file: {0} Creating directory Creazione della directory Operation was canceled L'operazione è stata annullata Error on making directory: {0} Si è verificato un errore durante la creazione della directory: {0} Enter directory name Immettere il nome della directory Error on deleting files: {0} Si è verificato un errore durante l'eliminazione dei file: {0} Are you sure you want to delete this folder and its contents? Eliminare questa cartella e il relativo contenuto? Are you sure you want to delete this file? Eliminare questo file? Saving HDFS Files Salvataggio dei file HDFS Save operation was canceled L'operazione di salvataggio è stata annullata Error on saving file: {0} Si è verificato un errore durante il salvataggio del file: {0} Generating preview Generazione dell'anteprima Error on previewing file: {0} Si è verificato un errore durante l'anteprima del file: {0} Error on copying path: {0} Si è verificato un errore durante la copia del percorso: {0} NOTICE: This file has been truncated at {0} for preview. AVVISO: questo file è stato troncato alla posizione {0} per l'anteprima. The file has been truncated at {0} for preview. Il file è stato troncato alla posizione {0} per l'anteprima. ConnectionInfo is undefined. ConnectionInfo non è definito. ConnectionInfo.options is undefined. ConnectionInfo.options non è definito. Some missing properties in connectionInfo.options: {0} In connectionInfo.options mancano alcune proprietà: {0} $(sync~spin) {0}... $(sync~spin) {0}... Cancel Annulla Cancel operation? Annullare l'operazione? Search Server Names Nomi dei server di ricerca Stream operation canceled by the user Operazione di flusso annullata dall'utente Yes No No This sample code loads the file into a data frame and shows the first 10 results. Questo esempio di codice consente di caricare il file in un frame di dati e visualizzare i primi 10 risultati. Metrics Dashboard Dashboard metrica Log Search Dashboard Dashboard di ricerca log Spark Job Monitoring Monitoraggio processi Spark Spark Resource Management Gestione risorse Spark Copy Copia Application Proxy Proxy dell'applicazione Cluster Management Service Servizio di gestione cluster HDFS and Spark HDFS e Spark Management Proxy Proxy di gestione Management Proxy Proxy di gestione Notebooks Notebooks Only .ipynb Notebooks are supported Sono supportati solo notebook con estensione ipynb Unable to find the file specified Non è possibile trovare il file specificato Installing {0} service to {1} Installazione del servizio {0} in {1} Installing Service Installazione del servizio Installed Installato Downloading {0} Download di {0} ({0} KB) ({0} KB) Downloading Service Download del servizio Done! Operazione completata. Node Command called without any node passed Il comando di Node è stato chiamato senza passare alcun nodo Local file will be uploaded to HDFS. Il file locale verrà caricato in HDFS. .......................... Submit Spark Job End ............................ .......................... Invia processo Spark - Fine .......................... Uploading file from local {0} to HDFS folder: {1} Caricamento del file dalla cartella locale {0} alla cartella HDFS: {1} Upload file to cluster Succeeded! Il caricamento del file nel cluster è riuscito. Upload file to cluster Failed. {0} Il caricamento del file nel cluster non è riuscito. {0} Submitting job {0} ... Invio del processo {0}... The Spark Job has been submitted. Il processo Spark è stato inviato. Spark Job Submission Failed. {0} L'invio del processo Spark non è riuscito. {0} YarnUI Url: {0} URL dell'interfaccia utente di YARN: {0} Spark History Url: {0} URL della cronologia di Spark: {0} Get Application Id Failed. {0} Il recupero dell'ID applicazione non è riuscito. {0} Local file {0} does not existed. Il file locale {0} non esiste. No Sql Server big data cluster found. Non è stato trovato alcun cluster Big Data di SQL Server.