CopyCopierApplication ProxyProxy d'applicationCluster Management ServiceService de gestion de clusterGateway to access HDFS files, SparkPasserelle d'accès aux fichiers HDFS, à SparkMetrics DashboardTableau de bord des métriquesLog Search DashboardTableau de bord de recherche dans les journauxProxy for running Spark statements, jobs, applicationsProxy pour exécuter les instructions, travaux, applications SparkManagement ProxyProxy de gestionManagement ProxyProxy de gestionSpark Jobs Management and Monitoring DashboardTableau de bord de gestion et de supervision de travaux SparkSQL Server Master Instance Front-EndFront-end de l'instance maître SQL ServerHDFS File System ProxyProxy du système de fichiers HDFSSpark Diagnostics and Monitoring DashboardTableau de bord de diagnostic et de supervision SparkMetrics DashboardTableau de bord des métriquesLog Search DashboardTableau de bord de recherche dans les journauxSpark Jobs Management and Monitoring DashboardTableau de bord de gestion et de supervision de travaux SparkSpark Diagnostics and Monitoring DashboardTableau de bord de diagnostic et de supervision SparkAzure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'a été sélectionné. Réessayez la requête et sélectionnez un compte Azure lié quand vous y êtes invité.Please select a linked Azure account:Sélectionnez un compte Azure lié :The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.Le compte Azure configuré pour {0} n'a pas les autorisations suffisantes pour permettre à Azure Key Vault d'accéder à une clé principale de colonne pour Always Encrypted.Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'est disponible. Ajoutez un compte Azure lié et réessayez la requête.Error applying permission changes: {0}Erreur d'application des changements d'autorisation : {0}Applying permission changes to '{0}'.Application des changements d'autorisation à '{0}'.Applying permission changes recursively under '{0}'Application des changements d'autorisation de manière récursive sous '{0}'Permission changes applied successfully.Les changements d'autorisation ont été appliqués.Bad RequestDemande incorrecteUnauthorizedNon autoriséForbiddenInterditNot FoundIntrouvableInternal Server ErrorErreur de serveur interneInvalid Data StructureStructure de données non valideUnable to create WebHDFS client due to missing options: ${0}Impossible de créer le client WebHDFS en raison d'options manquantes : ${0}'${0}' is undefined.'${0}' n'est pas défini.Unexpected RedirectRedirection inattendueUnknown ErrorErreur inconnueNode Command called without any node passedCommande de nœud appelée sans aucun nœudAccessAccèsAddAjouterAdd User or GroupAjouter un utilisateur ou un groupeApplyAppliquerApply RecursivelyAppliquer de façon récursiveDefaultPar défautDefault User and GroupsUtilisateur et groupes par défautDeleteSupprimerEnter nameEntrer un nomUnexpected error occurred while applying changes : {0}Une erreur inattendue s'est produite pendant l'application des changements : {0}Everyone elseTous les autresExecuteExécuterGroupGroupeGroupGroupeInherit DefaultsHériter les valeurs par défautLocation : Emplacement : Manage AccessGérer l'accèsNamed Users and GroupsUtilisateurs et groupes nommésOwnerPropriétaire - Owner - Propriétaire - Owning Group - Groupe propriétairePermissionsAutorisationsReadLireSticky BitSticky BitUserUtilisateurUser or Group IconIcône Utilisateur ou GroupeWriteÉcrirePlease connect to the Spark cluster before View {0} History.Connectez-vous au cluster Spark pour pouvoir voir l'historique de {0}.Get Application Id Failed. {0}L'obtention de l'ID d'application a échoué. {0}Local file will be uploaded to HDFS. Le fichier local est chargé dans HDFS. Local file {0} does not existed. Le fichier local {0} n'existe pas. No SQL Server Big Data Cluster found.Aucun cluster Big Data SQL Server.Submitting job {0} ... Envoi du travail {0}... Uploading file from local {0} to HDFS folder: {1}Chargement du fichier du {0} local vers le dossier HDFS : {1}Spark History Url: {0} URL de l'historique Spark : {0} .......................... Submit Spark Job End ...................................................... Fin d'envoi du travail Spark ............................Spark Job Submission Failed. {0} L'envoi du travail Spark a échoué. {0} The Spark Job has been submitted.Le travail Spark a été envoyé.Upload file to cluster Failed. {0}Le chargement du fichier dans le cluster a échoué. {0}Upload file to cluster Succeeded!Le fichier a été chargé dans le cluster.YarnUI Url: {0} URL de YarnUI : {0} This sample code loads the file into a data frame and shows the first 10 results.Cet exemple de code charge le fichier dans un cadre de données et affiche les 10 premiers résultats.An error occurred converting the SQL document to a Notebook. Error : {0}Erreur pendant la conversion du document SQL au format Notebook. Erreur : {0}An error occurred converting the Notebook document to SQL. Error : {0}Erreur pendant la conversion du document Notebook au format SQL. Erreur : {0}Could not find the controller endpoint for this instanceLe point de terminaison de contrôleur de cette instance est introuvableNotebooksNotebooksOnly .ipynb Notebooks are supportedSeuls les notebooks .ipynb sont pris en chargeStream operation canceled by the userOpération de flux annulée par l'utilisateurCancel operation?Annuler l'opération ?CancelAnnulerSearch Server NamesRechercher dans les noms de serveur$(sync~spin) {0}...$(sync~spin) {0}...Some missing properties in connectionInfo.options: {0}Des propriétés sont manquantes dans connectionInfo.options : {0}ConnectionInfo.options is undefined.ConnectionInfo.options n'est pas défini.ConnectionInfo is undefined.ConnectionInfo n'est pas défini.NOTICE: This file has been truncated at {0} for preview. REMARQUE : Ce fichier a été tronqué au niveau de {0} pour l'aperçu. The file has been truncated at {0} for preview.Le fichier a été tronqué au niveau de {0} pour l'aperçu.All FilesTous les fichiersError on copying path: {0}Erreur de copie du chemin : {0}Error on deleting files: {0}Erreur de suppression des fichiers : {0}Enter directory nameEntrer le nom du répertoireUploadChargerCreating directoryCréation du répertoireAn unexpected error occurred while opening the Manage Access dialog: {0}Une erreur inattendue s'est produite à l'ouverture de la boîte de dialogue Gérer l'accès : {0}Error on making directory: {0}Erreur de création du répertoire : {0}Operation was canceledL'opération a été annuléeAre you sure you want to delete this file?Voulez-vous vraiment supprimer ce fichier ?Are you sure you want to delete this folder and its contents?Voulez-vous vraiment supprimer ce dossier et son contenu ?Error on previewing file: {0}Erreur d'affichage de l'aperçu du fichier : {0}Generating previewGénération de l'aperçuSave operation was canceledL'opération d'enregistrement a été annuléeError on saving file: {0}Erreur d'enregistrement du fichier : {0}Saving HDFS FilesEnregistrement des fichiers HDFSUpload operation was canceledL'opération de chargement a été annuléeError uploading files: {0}Erreur de chargement des fichiers : {0}Uploading files to HDFSChargement des fichiers dans HDFSCannot delete a connection. Only subfolders and files can be deleted.Impossible de supprimer une connexion. Seuls les sous-dossiers et les fichiers peuvent être supprimés.Error: {0}Erreur : {0}HDFSHDFSError notifying of node change: {0}Erreur de notification du changement de nœud : {0}Please provide the password to connect to HDFS:Fournissez le mot de passe de connexion à HDFS :Please provide the username to connect to HDFS:Fournissez le nom d'utilisateur pour se connecter à HDFS :RootRacineSession for node {0} does not existLa session du nœud {0} n'existe pasNoNonYesOuiThe selected server does not belong to a SQL Server Big Data ClusterLe serveur sélectionné n'appartient pas à un cluster Big Data SQL ServerSelect other SQL ServerSélectionner un autre serveur SQLError Get File Path: {0}Erreur d'obtention du chemin de fichier : {0}No SQL Server is selected.Aucun serveur SQL sélectionné.Please select SQL Server with Big Data Cluster.Sélectionnez SQL Server avec le cluster Big Data.ADVANCEDAVANCÉReference FilesFichiers de référenceFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference JarsFichiers JAR de référenceJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)Fichiers JAR à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier JAR doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference py FilesFichiers py de référencePy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers py à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Configuration ValuesValeurs de configurationList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Liste des paires nom/valeur contenant des valeurs de configuration Spark. Encodé sous forme de dictionnaire JSON. Exemple : « {"name":"value", "name2":"value2"} ».Driver CoresCœurs de piloteAmount of CPU cores to allocate to the driver.Quantité de cœurs de processeur à allouer au pilote.Driver MemoryMémoire de piloteAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Quantité de mémoire à allouer au pilote. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G.Executor CoresCœurs d'exécuteurAmount of CPU cores to allocate to the executor.Quantité de cœurs de processeur à allouer à l'exécuteur.Executor CountNombre d'exécuteursNumber of instances of the executor to run.Nombre d'instances de l'exécuteur à exécuter.Executor MemoryMémoire d'exécuteurAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Quantité de mémoire à allouer à l'exécuteur. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G.Queue NameNom de la file d'attenteName of the Spark queue to execute the session in.Nom de la file d'attente Spark où exécuter la session.ArgumentsArgumentsCommand line arguments used in your main class, multiple arguments should be split by space.Arguments de ligne de commande utilisés dans votre classe principale, plusieurs arguments doivent être séparés par un espace.Path to a .jar or .py fileChemin d'un fichier .jar ou .pyGENERALGÉNÉRALThe specified HDFS file does not exist. Le fichier HDFS spécifié n'existe pas. {0} does not exist in Cluster or exception thrown. {0} n'existe pas dans le cluster ou une exception est levée. Job NameNom du travailEnter a name ...Entrer un nom...The selected local file will be uploaded to HDFS: {0}Le fichier local sélectionné est chargé dans HDFS : {0}Main ClassClasse principaleJAR/py FileFichier JAR/pyProperty JAR/py File is not specified.Le fichier JAR/py de propriétés n'est pas spécifié.Property Job Name is not specified.Le nom de travail de la propriété n'est pas spécifié.Property Main Class is not specified.La classe principale de la propriété n'est pas spécifiée.Error in locating the file due to Error: {0}Erreur de localisation du fichier en raison de l'erreur : {0}Spark ClusterCluster SparkSelectSélectionnerCancelAnnulerSubmitEnvoyerNew JobNouveau travailParameters for SparkJobSubmissionDialog is illegalLes paramètres de SparkJobSubmissionDialog ne sont pas autorisés.......................... Submit Spark Job Start .................................................... Début de l'envoi du travail Spark ..........................{0} Spark Job Submission:Envoi du travail Spark {0} :Get Application Id time out. {0}[Log] {1}Le délai d'obtention de l'ID d'application a expiré. {0}[Journal] {1}livyBatchId is invalid. livyBatchId n'est pas valide. Property Path is not specified. Le chemin de propriété n'est pas spécifié. Parameters for SparkJobSubmissionModel is illegalLes paramètres de SparkJobSubmissionModel ne sont pas autorisésProperty localFilePath or hdfsFolderPath is not specified. La propriété localeFilePath ou hdfsFolderPath n'est pas spécifiée. submissionArgs is invalid. soumissionArgs n'est pas valide. No Spark job batch id is returned from response.{0}[Error] {1}Aucun ID de lot de travail Spark dans la réponse.{0}[Erreur] {1}No log is returned within response.{0}[Error] {1}Aucun journal dans la réponse.{0}[Erreur] {1}Error: {0}. Erreur : {0}. Please provide the password to connect to the BDC ControllerFournissez le mot de passe pour se connecter au contrôleur BDC{0}Please provide the username to connect to the BDC Controller:{0}Fournissez le nom d'utilisateur pour se connecter au contrôleur BDC :Username and password are requiredLe nom d'utilisateur et le mot de passe sont obligatoiresDone installing {0}Installation de {0} effectuéeDownloading {0}Téléchargement de {0}({0} KB)({0} Ko)Downloading {0}Téléchargement de {0}Extracted {0} ({1}/{2}){0} extrait ({1}/{2})Failed to start {0}Échec du démarrage de {0}Installed {0}{0} installéInstalling {0} to {1}Installation de {0} sur {1}Installing {0}Installation de {0}{0} Started{0} démarréStarting {0}Démarrage de {0}{0} component exited unexpectedly. Please restart Azure Data Studio.Le composant {0} a quitté de manière inattendue. Redémarrez Azure Data Studio.View Known IssuesVoir les problèmes connusEditionÉditionCompatibility LevelNiveau de compatibilitéOwnerPropriétairePricing TierNiveau tarifaireTypeTypeVersionVersionLast backupDernière sauvegardeNameNomSize (MB)Taille (Mo)StatusÉtatEnable/disable default JSON formatter (requires restart)Activer/désactiver le formateur JSON par défaut (nécessite un redémarrage)Associate schemas to JSON files in the current projectAssocier des schémas aux fichiers JSON dans le projet actuelAn array of file patterns to match against when resolving JSON files to schemas.Tableau de modèles de fichier à mapper durant la résolution de fichiers JSON en schémas.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Modèle de fichier pouvant contenir '*' à mapper durant la résolution de fichiers JSON en schémas.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Définition de schéma pour l'URL indiquée. Le schéma doit être fourni uniquement pour éviter les accès à l'URL du schéma.A URL to a schema or a relative path to a schema in the current directoryURL de schéma ou chemin relatif d'un schéma dans le répertoire actuelMSSQL configurationConfiguration MSSQLDeclares the application workload type when connecting to a serverDéclare le type de charge de travail de l'application pendant la connexion à un serveurApplication intentIntention d'applicationThe name of the applicationNom de l'applicationApplication nameNom de l'applicationWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderQuand la valeur est true, permet d'utiliser la fonctionnalité asynchrone dans le fournisseur de données .Net FrameworkAsynchronous processingTraitement asynchroneAttach DB filenameAttacher le nom de fichier de base de donnéesThe name of the primary file, including the full path name, of an attachable databaseNom de fichier principal, y compris le nom de chemin complet, d'une base de données pouvant être attachéeAttached DB file nameNom du fichier de base de données attachéAzure Active Directory - Universal with MFA supportAzure Active Directory - Authentification universelle avec prise en charge de MFAWindows AuthenticationAuthentification WindowsSQL LoginConnexion SQLSpecifies the method of authenticating with SQL ServerSpécifie la méthode d'authentification avec SQL ServerAuthentication typeType d'authentificationEnables or disables Always Encrypted for the connectionActive ou désactive Always Encrypted pour la connexionAlways EncryptedAlways EncryptedNumber of attempts to restore connectionNombre de tentatives de restauration de connexionConnect retry countNombre de tentatives de connexionDelay between attempts to restore connectionDélai entre les tentatives de restauration de connexionConnect retry intervalIntervalle entre les tentatives de connexionThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorDurée d'attente (en secondes) d'une connexion au serveur avant de terminer la tentative et de générer une erreurConnect timeoutDélai d'expiration de la connexionCustom name of the connectionNom personnalisé de la connexionName (optional)Nom (facultatif)When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processQuand la valeur est true, indique que la connexion doit provenir du contexte du serveur SQL. Disponible uniquement en cas d'exécution dans le processus SQL ServerContext connectionConnexion contextuelleThe SQL Server language record nameNom d'enregistrement de la langue de SQL ServerCurrent languageLangage actuelThe name of the initial catalog or database int the data sourceNom du catalogue ou de la base de données de départ dans la source de donnéesDatabaseBase de donnéesAzure AttestationAzure AttestationHost Guardian ServiceService Guardian hôteSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesSpécifie un protocole pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécuriséesAttestation ProtocolProtocole d'attestationSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesSpécifie un point de terminaison pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécuriséesEnclave Attestation URLURL d'attestation d'enclaveWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedQuand la valeur est true, SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur si le serveur a un certificat installéEncryptChiffrerThe name or network address of the instance of SQL Server that acts as a failover partnerNom ou adresse réseau de l'instance de SQL Server servant de partenaire de basculementFailover partnerPartenaire de basculementAdvancedAvancéConnection ResiliencyRésilience de la connexionContextContexteInitializationInitialisationPoolingRegroupementReplicationRéplicationSecuritySécuritéSourceSourceThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedDurée de vie minimale (en secondes) de cette connexion dans le pool avant d'être détruiteLoad balance timeoutDélai d'expiration de l'équilibrage de chargeThe maximum number of connections allowed in the poolNombre maximal de connexions autorisées dans le poolMax pool sizeTaille maximale du poolThe minimum number of connections allowed in the poolNombre minimal de connexions autorisées dans le poolMin pool sizeTaille minimale du poolMulti subnet failoverBasculement de plusieurs sous-réseauxWhen true, multiple result sets can be returned and read from one connectionQuand la valeur est true, plusieurs jeux de résultats peuvent être retournés et lus sur une même connexionMultiple active result setsMARS (Multiple Active Result Set)Size in bytes of the network packets used to communicate with an instance of SQL ServerTaille en octets des paquets réseau utilisés pour communiquer avec une instance de SQL ServerPacket sizeTaille de paquetIndicates the password to be used when connecting to the data sourceIndique le mot de passe à utiliser pour la connexion à la source de donnéesPasswordMot de passeWhen false, security-sensitive information, such as the password, is not returned as part of the connectionQuand la valeur est false, les informations de sécurité, comme le mot de passe, ne sont pas retournées dans le cadre de la connexionPersist security infoConserver les informations de sécuritéWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolQuand la valeur est true, l'objet de connexion est tiré du pool approprié ou, si nécessaire, est créé et ajouté au pool appropriéPoolingRegroupementPortPortUsed by SQL Server in ReplicationUtilisé par SQL Server dans la réplicationReplicationRéplicationName of the SQL Server instanceNom de l'instance SQL ServerServerServeurWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateQuand la valeur est true (et encrypt=true), SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur sans valider le certificat de serveurTrust server certificateApprouver le certificat de serveurIndicates which server type system the provider will expose through the DataReaderIndique le système de type serveur que le fournisseur doit exposer par le biais de DataReaderType system versionVersion du système de typeIndicates the user ID to be used when connecting to the data sourceIndique l'identifiant utilisateur à utiliser pour la connexion à la source de donnéesUser nameNom d'utilisateurThe name of the workstation connecting to SQL ServerNom de la station de travail se connectant à SQL ServerWorkstation IdID de station de travailDisabledDésactivéEnabledActivéExport Notebook as SQLExporter le notebook au format SQLExport SQL as NotebookExporter SQL au format NotebookShould column definitions be aligned?Spécifie si les définitions de colonne doivent être alignéesShould data types be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si la mise en forme des types de données est MAJUSCULES, minuscules ou aucune (sans mise en forme)Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si la mise en forme des mots clés est MAJUSCULES, minuscules ou aucune (sans mise en forme)should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'spécifie si des virgules doivent être placées au début de chaque instruction dans une liste (par exemple : ',mycolumn2') plutôt qu'à la fin (par exemple : 'mycolumn1,')Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSpécifie si les références aux objets dans les instructions select doivent être divisées en plusieurs lignes. Par exemple, pour 'SELECT C1, C2 FROM T1', C1 et C2 sont sur des lignes distinctes[Optional] Do not show unsupported platform warnings[Facultatif] Ne pas afficher les avertissements de plateforme non prise en chargeShould IntelliSense error checking be enabledIndique s'il faut activer la vérification des erreurs IntelliSenseShould IntelliSense be enabledIndique s'il faut activer IntelliSenseShould IntelliSense quick info be enabledIndique s'il faut activer Info express IntelliSenseShould IntelliSense suggestions be enabledIndique s'il faut activer les suggestions IntelliSenseShould IntelliSense suggestions be lowercaseIndique si les suggestions IntelliSense doivent être en minuscules[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Facultatif] Journaliser la sortie de débogage dans la console (Voir -> Sortie) et sélectionner le canal de sortie approprié dans la liste déroulanteMaximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Nombre maximal d'anciens fichiers ayant dépassé mssql.logRetentionMinutes à supprimer au démarrage. Les fichiers qui ne sont pas nettoyés du fait de cette limitation le sont au prochain démarrage d'Azure Data Studio.Number of minutes to retain log files for backend services. Default is 1 week.Nombre de minutes de conservation des fichiers journaux pour les services de back-end. La durée par défaut est 1 semaine.Microsoft SQL ServerMicrosoft SQL ServerEnable Parameterization for Always EncryptedActiver la paramétrisation pour Always EncryptedEnable SET ANSI_DEFAULTSActiver SET ANSI_DEFAULTSEnable SET ANSI_NULL_DFLT_ONActiver SET ANSI_NULL_DFLT_ONEnable SET ANSI_NULLSActiver SET ANSI_NULLSEnable SET ANSI_PADDINGActiver SET ANSI_PADDINGEnable SET ANSI_WARNINGSActiver SET ANSI_WARNINGSEnable SET ARITHABORT optionActiver l'option SET ARITHABORTEnable SET CURSOR_CLOSE_ON_COMMITActiver SET CURSOR_CLOSE_ON_COMMITEnable SET DEADLOCK_PRIORITY optionActiver l'option SET DEADLOCK_PRIORITYShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Spécifie si les colonnes BIT doivent être affichées sous forme de nombre (1 ou 0). Si la valeur est false, les colonnes BIT sont affichées sous la forme 'true' ou 'false'An execution time-out of 0 indicates an unlimited wait (no time-out)Un délai d'expiration de 0 indique une attente illimitée (aucun délai d'expiration)Enable SET IMPLICIT_TRANSACTIONSActiver SET IMPLICIT_TRANSACTIONSEnable SET LOCK TIMEOUT option (in milliseconds)Activer l'option SET LOCK TIMEOUT (en millisecondes)Number of XML characters to store after running a queryNombre de caractères XML à stocker après l'exécution d'une requêteEnable SET NOCOUNT optionActiver l'option SET NOCOUNTEnable SET NOEXEC optionActiver l'option SET NOEXECEnable SET PARSEONLY optionActiver l'option SET PARSEONLYEnable SET QUERY_GOVERNOR_COST_LIMITActiver SET QUERY_GOVERNOR_COST_LIMITEnable SET QUOTED_IDENTIFIERActiver SET QUOTED_IDENTIFIERMaximum number of rows to return before the server stops processing your query.Nombre maximal de lignes à retourner avant que le serveur arrête le traitement de votre requête.Enable SET STATISTICS IO optionActiver l'option SET STATISTICS IOEnable SET STATISTICS TIME optionActiver l'option SET STATISTICS TIMEMaximum size of text and ntext data returned from a SELECT statementTaille maximale des données text et ntext retournées par une instruction SELECTEnable SET TRANSACTION ISOLATION LEVEL optionActiver l'option SET TRANSACTION ISOLATION LEVELEnable SET XACT_ABORT ON optionActiver l'option SET XACT-ABORT ON[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Facultatif] Niveau de journalisation des services de back-end. Azure Data Studio génère un nom de fichier à chaque démarrage et, si le fichier existe déjà, ajoute les entrées de journal à ce fichier. Pour nettoyer les anciens fichiers journaux, consultez les paramètres logRetentionMinutes et logFilesRemovalLimit. Le niveau de suivi par défaut correspond à une faible journalisation. Si vous changez le niveau de détail, vous pouvez obtenir une journalisation massive nécessitant de l'espace disque pour les journaux. Le niveau Erreur inclut le niveau Critique, le niveau Avertissement inclut le niveau Erreur, le niveau Informations inclut le niveau Avertissement et le niveau Détail inclut le niveau InformationsCopy PathCopier le cheminDeleteSupprimerManage AccessGérer l'accèsNew directoryNouveau répertoirePreviewAperçuSaveEnregistrerUpload filesCharger des fichiersNew NotebookNouveau notebookOpen NotebookOuvrir le notebookNameNomCompatibility LevelNiveau de compatibilitéLast Database BackupDernière sauvegarde de base de donnéesLast Log BackupDernière sauvegarde de journalOwnerPropriétaireRecovery ModelMode de récupérationComputer NameNom de l'ordinateurOS VersionVersion de système d'exploitationEditionÉditionVersionVersionTasks and information about your SQL Server Big Data ClusterTâches et informations concernant votre cluster Big Data SQL ServerSQL Server Big Data ClusterCluster Big Data SQL ServerNotebooksNotebooksSearch: Clear Search Server ResultsRecherche : Effacer les résultats du serveur de rechercheConfigure Python for NotebooksConfigurer Python pour NotebooksDesignConceptionService EndpointsPoints de terminaison de serviceInstall PackagesInstaller les packagesNew Spark JobNouveau travail SparkNew TableNouvelle tableCluster
DashboardCluster
Tableau de bordView Spark HistoryVoir l'historique SparkView Yarn HistoryVoir l'historique YarnSearch: ServersRecherche : ServeursShow Log FileAfficher le fichier journalSubmit Spark JobEnvoyer le travail SparkTasksTâches