Copy Copier Application Proxy Proxy d'application Cluster Management Service Service de gestion de cluster Gateway to access HDFS files, Spark Passerelle d'accès aux fichiers HDFS, à Spark Metrics Dashboard Tableau de bord des métriques Log Search Dashboard Tableau de bord de recherche dans les journaux Proxy for running Spark statements, jobs, applications Proxy pour exécuter les instructions, travaux, applications Spark Management Proxy Proxy de gestion Management Proxy Proxy de gestion Spark Jobs Management and Monitoring Dashboard Tableau de bord de gestion et de supervision de travaux Spark SQL Server Master Instance Front-End Front-end de l'instance maître SQL Server HDFS File System Proxy Proxy du système de fichiers HDFS Spark Diagnostics and Monitoring Dashboard Tableau de bord de diagnostic et de supervision Spark Metrics Dashboard Tableau de bord des métriques Log Search Dashboard Tableau de bord de recherche dans les journaux Spark Jobs Management and Monitoring Dashboard Tableau de bord de gestion et de supervision de travaux Spark Spark Diagnostics and Monitoring Dashboard Tableau de bord de diagnostic et de supervision Spark Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'a été sélectionné. Réessayez la requête et sélectionnez un compte Azure lié quand vous y êtes invité. Please select a linked Azure account: Sélectionnez un compte Azure lié : The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. Le compte Azure configuré pour {0} n'a pas les autorisations suffisantes pour permettre à Azure Key Vault d'accéder à une clé principale de colonne pour Always Encrypted. Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'est disponible. Ajoutez un compte Azure lié et réessayez la requête. Error applying permission changes: {0} Erreur d'application des changements d'autorisation : {0} Applying permission changes to '{0}'. Application des changements d'autorisation à '{0}'. Applying permission changes recursively under '{0}' Application des changements d'autorisation de manière récursive sous '{0}' Permission changes applied successfully. Les changements d'autorisation ont été appliqués. Bad Request Demande incorrecte Unauthorized Non autorisé Forbidden Interdit Not Found Introuvable Internal Server Error Erreur de serveur interne Invalid Data Structure Structure de données non valide Unable to create WebHDFS client due to missing options: ${0} Impossible de créer le client WebHDFS en raison d'options manquantes : ${0} '${0}' is undefined. '${0}' n'est pas défini. Unexpected Redirect Redirection inattendue Unknown Error Erreur inconnue Node Command called without any node passed Commande de nœud appelée sans aucun nœud Access Accès Add Ajouter Add User or Group Ajouter un utilisateur ou un groupe Apply Appliquer Apply Recursively Appliquer de façon récursive Default Par défaut Default User and Groups Utilisateur et groupes par défaut Delete Supprimer Enter name Entrer un nom Unexpected error occurred while applying changes : {0} Une erreur inattendue s'est produite pendant l'application des changements : {0} Everyone else Tous les autres Execute Exécuter Group Groupe Group Groupe Inherit Defaults Hériter les valeurs par défaut Location : Emplacement : Manage Access Gérer l'accès Named Users and Groups Utilisateurs et groupes nommés Owner Propriétaire - Owner - Propriétaire - Owning Group - Groupe propriétaire Permissions Autorisations Read Lire Sticky Bit Sticky Bit User Utilisateur User or Group Icon Icône Utilisateur ou Groupe Write Écrire Please connect to the Spark cluster before View {0} History. Connectez-vous au cluster Spark pour pouvoir voir l'historique de {0}. Get Application Id Failed. {0} L'obtention de l'ID d'application a échoué. {0} Local file will be uploaded to HDFS. Le fichier local est chargé dans HDFS. Local file {0} does not existed. Le fichier local {0} n'existe pas. No SQL Server Big Data Cluster found. Aucun cluster Big Data SQL Server. Submitting job {0} ... Envoi du travail {0}... Uploading file from local {0} to HDFS folder: {1} Chargement du fichier du {0} local vers le dossier HDFS : {1} Spark History Url: {0} URL de l'historique Spark : {0} .......................... Submit Spark Job End ............................ .......................... Fin d'envoi du travail Spark ............................ Spark Job Submission Failed. {0} L'envoi du travail Spark a échoué. {0} The Spark Job has been submitted. Le travail Spark a été envoyé. Upload file to cluster Failed. {0} Le chargement du fichier dans le cluster a échoué. {0} Upload file to cluster Succeeded! Le fichier a été chargé dans le cluster. YarnUI Url: {0} URL de YarnUI : {0} This sample code loads the file into a data frame and shows the first 10 results. Cet exemple de code charge le fichier dans un cadre de données et affiche les 10 premiers résultats. An error occurred converting the SQL document to a Notebook. Error : {0} Erreur pendant la conversion du document SQL au format Notebook. Erreur : {0} An error occurred converting the Notebook document to SQL. Error : {0} Erreur pendant la conversion du document Notebook au format SQL. Erreur : {0} Could not find the controller endpoint for this instance Le point de terminaison de contrôleur de cette instance est introuvable Notebooks Notebooks Only .ipynb Notebooks are supported Seuls les notebooks .ipynb sont pris en charge Stream operation canceled by the user Opération de flux annulée par l'utilisateur Cancel operation? Annuler l'opération ? Cancel Annuler Search Server Names Rechercher dans les noms de serveur $(sync~spin) {0}... $(sync~spin) {0}... Some missing properties in connectionInfo.options: {0} Des propriétés sont manquantes dans connectionInfo.options : {0} ConnectionInfo.options is undefined. ConnectionInfo.options n'est pas défini. ConnectionInfo is undefined. ConnectionInfo n'est pas défini. NOTICE: This file has been truncated at {0} for preview. REMARQUE : Ce fichier a été tronqué au niveau de {0} pour l'aperçu. The file has been truncated at {0} for preview. Le fichier a été tronqué au niveau de {0} pour l'aperçu. All Files Tous les fichiers Error on copying path: {0} Erreur de copie du chemin : {0} Error on deleting files: {0} Erreur de suppression des fichiers : {0} Enter directory name Entrer le nom du répertoire Upload Charger Creating directory Création du répertoire An unexpected error occurred while opening the Manage Access dialog: {0} Une erreur inattendue s'est produite à l'ouverture de la boîte de dialogue Gérer l'accès : {0} Error on making directory: {0} Erreur de création du répertoire : {0} Operation was canceled L'opération a été annulée Are you sure you want to delete this file? Voulez-vous vraiment supprimer ce fichier ? Are you sure you want to delete this folder and its contents? Voulez-vous vraiment supprimer ce dossier et son contenu ? Error on previewing file: {0} Erreur d'affichage de l'aperçu du fichier : {0} Generating preview Génération de l'aperçu Save operation was canceled L'opération d'enregistrement a été annulée Error on saving file: {0} Erreur d'enregistrement du fichier : {0} Saving HDFS Files Enregistrement des fichiers HDFS Upload operation was canceled L'opération de chargement a été annulée Error uploading files: {0} Erreur de chargement des fichiers : {0} Uploading files to HDFS Chargement des fichiers dans HDFS Cannot delete a connection. Only subfolders and files can be deleted. Impossible de supprimer une connexion. Seuls les sous-dossiers et les fichiers peuvent être supprimés. Error: {0} Erreur : {0} HDFS HDFS Error notifying of node change: {0} Erreur de notification du changement de nœud : {0} Please provide the password to connect to HDFS: Fournissez le mot de passe de connexion à HDFS : Please provide the username to connect to HDFS: Fournissez le nom d'utilisateur pour se connecter à HDFS : Root Racine Session for node {0} does not exist La session du nœud {0} n'existe pas No Non Yes Oui The selected server does not belong to a SQL Server Big Data Cluster Le serveur sélectionné n'appartient pas à un cluster Big Data SQL Server Select other SQL Server Sélectionner un autre serveur SQL Error Get File Path: {0} Erreur d'obtention du chemin de fichier : {0} No SQL Server is selected. Aucun serveur SQL sélectionné. Please select SQL Server with Big Data Cluster. Sélectionnez SQL Server avec le cluster Big Data. ADVANCED AVANCÉ Reference Files Fichiers de référence Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Fichiers à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Reference Jars Fichiers JAR de référence Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) Fichiers JAR à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier JAR doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Reference py Files Fichiers py de référence Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Fichiers py à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Configuration Values Valeurs de configuration List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Liste des paires nom/valeur contenant des valeurs de configuration Spark. Encodé sous forme de dictionnaire JSON. Exemple : « {"name":"value", "name2":"value2"} ». Driver Cores Cœurs de pilote Amount of CPU cores to allocate to the driver. Quantité de cœurs de processeur à allouer au pilote. Driver Memory Mémoire de pilote Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. Quantité de mémoire à allouer au pilote. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G. Executor Cores Cœurs d'exécuteur Amount of CPU cores to allocate to the executor. Quantité de cœurs de processeur à allouer à l'exécuteur. Executor Count Nombre d'exécuteurs Number of instances of the executor to run. Nombre d'instances de l'exécuteur à exécuter. Executor Memory Mémoire d'exécuteur Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Quantité de mémoire à allouer à l'exécuteur. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G. Queue Name Nom de la file d'attente Name of the Spark queue to execute the session in. Nom de la file d'attente Spark où exécuter la session. Arguments Arguments Command line arguments used in your main class, multiple arguments should be split by space. Arguments de ligne de commande utilisés dans votre classe principale, plusieurs arguments doivent être séparés par un espace. Path to a .jar or .py file Chemin d'un fichier .jar ou .py GENERAL GÉNÉRAL The specified HDFS file does not exist. Le fichier HDFS spécifié n'existe pas. {0} does not exist in Cluster or exception thrown. {0} n'existe pas dans le cluster ou une exception est levée. Job Name Nom du travail Enter a name ... Entrer un nom... The selected local file will be uploaded to HDFS: {0} Le fichier local sélectionné est chargé dans HDFS : {0} Main Class Classe principale JAR/py File Fichier JAR/py Property JAR/py File is not specified. Le fichier JAR/py de propriétés n'est pas spécifié. Property Job Name is not specified. Le nom de travail de la propriété n'est pas spécifié. Property Main Class is not specified. La classe principale de la propriété n'est pas spécifiée. Error in locating the file due to Error: {0} Erreur de localisation du fichier en raison de l'erreur : {0} Spark Cluster Cluster Spark Select Sélectionner Cancel Annuler Submit Envoyer New Job Nouveau travail Parameters for SparkJobSubmissionDialog is illegal Les paramètres de SparkJobSubmissionDialog ne sont pas autorisés .......................... Submit Spark Job Start .......................... .......................... Début de l'envoi du travail Spark .......................... {0} Spark Job Submission: Envoi du travail Spark {0} : Get Application Id time out. {0}[Log] {1} Le délai d'obtention de l'ID d'application a expiré. {0}[Journal] {1} livyBatchId is invalid. livyBatchId n'est pas valide. Property Path is not specified. Le chemin de propriété n'est pas spécifié. Parameters for SparkJobSubmissionModel is illegal Les paramètres de SparkJobSubmissionModel ne sont pas autorisés Property localFilePath or hdfsFolderPath is not specified. La propriété localeFilePath ou hdfsFolderPath n'est pas spécifiée. submissionArgs is invalid. soumissionArgs n'est pas valide. No Spark job batch id is returned from response.{0}[Error] {1} Aucun ID de lot de travail Spark dans la réponse.{0}[Erreur] {1} No log is returned within response.{0}[Error] {1} Aucun journal dans la réponse.{0}[Erreur] {1} Error: {0}. Erreur : {0}. Please provide the password to connect to the BDC Controller Fournissez le mot de passe pour se connecter au contrôleur BDC {0}Please provide the username to connect to the BDC Controller: {0}Fournissez le nom d'utilisateur pour se connecter au contrôleur BDC : Username and password are required Le nom d'utilisateur et le mot de passe sont obligatoires Done installing {0} Installation de {0} effectuée Downloading {0} Téléchargement de {0} ({0} KB) ({0} Ko) Downloading {0} Téléchargement de {0} Extracted {0} ({1}/{2}) {0} extrait ({1}/{2}) Failed to start {0} Échec du démarrage de {0} Installed {0} {0} installé Installing {0} to {1} Installation de {0} sur {1} Installing {0} Installation de {0} {0} Started {0} démarré Starting {0} Démarrage de {0} {0} component exited unexpectedly. Please restart Azure Data Studio. Le composant {0} a quitté de manière inattendue. Redémarrez Azure Data Studio. View Known Issues Voir les problèmes connus Edition Édition Compatibility Level Niveau de compatibilité Owner Propriétaire Pricing Tier Niveau tarifaire Type Type Version Version Last backup Dernière sauvegarde Name Nom Size (MB) Taille (Mo) Status État Enable/disable default JSON formatter (requires restart) Activer/désactiver le formateur JSON par défaut (nécessite un redémarrage) Associate schemas to JSON files in the current project Associer des schémas aux fichiers JSON dans le projet actuel An array of file patterns to match against when resolving JSON files to schemas. Tableau de modèles de fichier à mapper durant la résolution de fichiers JSON en schémas. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Modèle de fichier pouvant contenir '*' à mapper durant la résolution de fichiers JSON en schémas. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Définition de schéma pour l'URL indiquée. Le schéma doit être fourni uniquement pour éviter les accès à l'URL du schéma. A URL to a schema or a relative path to a schema in the current directory URL de schéma ou chemin relatif d'un schéma dans le répertoire actuel MSSQL configuration Configuration MSSQL Declares the application workload type when connecting to a server Déclare le type de charge de travail de l'application pendant la connexion à un serveur Application intent Intention d'application The name of the application Nom de l'application Application name Nom de l'application When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Quand la valeur est true, permet d'utiliser la fonctionnalité asynchrone dans le fournisseur de données .Net Framework Asynchronous processing Traitement asynchrone Attach DB filename Attacher le nom de fichier de base de données The name of the primary file, including the full path name, of an attachable database Nom de fichier principal, y compris le nom de chemin complet, d'une base de données pouvant être attachée Attached DB file name Nom du fichier de base de données attaché Azure Active Directory - Universal with MFA support Azure Active Directory - Authentification universelle avec prise en charge de MFA Windows Authentication Authentification Windows SQL Login Connexion SQL Specifies the method of authenticating with SQL Server Spécifie la méthode d'authentification avec SQL Server Authentication type Type d'authentification Enables or disables Always Encrypted for the connection Active ou désactive Always Encrypted pour la connexion Always Encrypted Always Encrypted Number of attempts to restore connection Nombre de tentatives de restauration de connexion Connect retry count Nombre de tentatives de connexion Delay between attempts to restore connection Délai entre les tentatives de restauration de connexion Connect retry interval Intervalle entre les tentatives de connexion The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Durée d'attente (en secondes) d'une connexion au serveur avant de terminer la tentative et de générer une erreur Connect timeout Délai d'expiration de la connexion Custom name of the connection Nom personnalisé de la connexion Name (optional) Nom (facultatif) When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Quand la valeur est true, indique que la connexion doit provenir du contexte du serveur SQL. Disponible uniquement en cas d'exécution dans le processus SQL Server Context connection Connexion contextuelle The SQL Server language record name Nom d'enregistrement de la langue de SQL Server Current language Langage actuel The name of the initial catalog or database int the data source Nom du catalogue ou de la base de données de départ dans la source de données Database Base de données Azure Attestation Azure Attestation Host Guardian Service Service Guardian hôte Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves Spécifie un protocole pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécurisées Attestation Protocol Protocole d'attestation Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves Spécifie un point de terminaison pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécurisées Enclave Attestation URL URL d'attestation d'enclave When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Quand la valeur est true, SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur si le serveur a un certificat installé Encrypt Chiffrer The name or network address of the instance of SQL Server that acts as a failover partner Nom ou adresse réseau de l'instance de SQL Server servant de partenaire de basculement Failover partner Partenaire de basculement Advanced Avancé Connection Resiliency Résilience de la connexion Context Contexte Initialization Initialisation Pooling Regroupement Replication Réplication Security Sécurité Source Source The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Durée de vie minimale (en secondes) de cette connexion dans le pool avant d'être détruite Load balance timeout Délai d'expiration de l'équilibrage de charge The maximum number of connections allowed in the pool Nombre maximal de connexions autorisées dans le pool Max pool size Taille maximale du pool The minimum number of connections allowed in the pool Nombre minimal de connexions autorisées dans le pool Min pool size Taille minimale du pool Multi subnet failover Basculement de plusieurs sous-réseaux When true, multiple result sets can be returned and read from one connection Quand la valeur est true, plusieurs jeux de résultats peuvent être retournés et lus sur une même connexion Multiple active result sets MARS (Multiple Active Result Set) Size in bytes of the network packets used to communicate with an instance of SQL Server Taille en octets des paquets réseau utilisés pour communiquer avec une instance de SQL Server Packet size Taille de paquet Indicates the password to be used when connecting to the data source Indique le mot de passe à utiliser pour la connexion à la source de données Password Mot de passe When false, security-sensitive information, such as the password, is not returned as part of the connection Quand la valeur est false, les informations de sécurité, comme le mot de passe, ne sont pas retournées dans le cadre de la connexion Persist security info Conserver les informations de sécurité When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Quand la valeur est true, l'objet de connexion est tiré du pool approprié ou, si nécessaire, est créé et ajouté au pool approprié Pooling Regroupement Port Port Used by SQL Server in Replication Utilisé par SQL Server dans la réplication Replication Réplication Name of the SQL Server instance Nom de l'instance SQL Server Server Serveur When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Quand la valeur est true (et encrypt=true), SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur sans valider le certificat de serveur Trust server certificate Approuver le certificat de serveur Indicates which server type system the provider will expose through the DataReader Indique le système de type serveur que le fournisseur doit exposer par le biais de DataReader Type system version Version du système de type Indicates the user ID to be used when connecting to the data source Indique l'identifiant utilisateur à utiliser pour la connexion à la source de données User name Nom d'utilisateur The name of the workstation connecting to SQL Server Nom de la station de travail se connectant à SQL Server Workstation Id ID de station de travail Disabled Désactivé Enabled Activé Export Notebook as SQL Exporter le notebook au format SQL Export SQL as Notebook Exporter SQL au format Notebook Should column definitions be aligned? Spécifie si les définitions de colonne doivent être alignées Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Spécifie si la mise en forme des types de données est MAJUSCULES, minuscules ou aucune (sans mise en forme) Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Spécifie si la mise en forme des mots clés est MAJUSCULES, minuscules ou aucune (sans mise en forme) should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' spécifie si des virgules doivent être placées au début de chaque instruction dans une liste (par exemple : ',mycolumn2') plutôt qu'à la fin (par exemple : 'mycolumn1,') Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Spécifie si les références aux objets dans les instructions select doivent être divisées en plusieurs lignes. Par exemple, pour 'SELECT C1, C2 FROM T1', C1 et C2 sont sur des lignes distinctes [Optional] Do not show unsupported platform warnings [Facultatif] Ne pas afficher les avertissements de plateforme non prise en charge Should IntelliSense error checking be enabled Indique s'il faut activer la vérification des erreurs IntelliSense Should IntelliSense be enabled Indique s'il faut activer IntelliSense Should IntelliSense quick info be enabled Indique s'il faut activer Info express IntelliSense Should IntelliSense suggestions be enabled Indique s'il faut activer les suggestions IntelliSense Should IntelliSense suggestions be lowercase Indique si les suggestions IntelliSense doivent être en minuscules [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Facultatif] Journaliser la sortie de débogage dans la console (Voir -> Sortie) et sélectionner le canal de sortie approprié dans la liste déroulante Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Nombre maximal d'anciens fichiers ayant dépassé mssql.logRetentionMinutes à supprimer au démarrage. Les fichiers qui ne sont pas nettoyés du fait de cette limitation le sont au prochain démarrage d'Azure Data Studio. Number of minutes to retain log files for backend services. Default is 1 week. Nombre de minutes de conservation des fichiers journaux pour les services de back-end. La durée par défaut est 1 semaine. Microsoft SQL Server Microsoft SQL Server Enable Parameterization for Always Encrypted Activer la paramétrisation pour Always Encrypted Enable SET ANSI_DEFAULTS Activer SET ANSI_DEFAULTS Enable SET ANSI_NULL_DFLT_ON Activer SET ANSI_NULL_DFLT_ON Enable SET ANSI_NULLS Activer SET ANSI_NULLS Enable SET ANSI_PADDING Activer SET ANSI_PADDING Enable SET ANSI_WARNINGS Activer SET ANSI_WARNINGS Enable SET ARITHABORT option Activer l'option SET ARITHABORT Enable SET CURSOR_CLOSE_ON_COMMIT Activer SET CURSOR_CLOSE_ON_COMMIT Enable SET DEADLOCK_PRIORITY option Activer l'option SET DEADLOCK_PRIORITY Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' Spécifie si les colonnes BIT doivent être affichées sous forme de nombre (1 ou 0). Si la valeur est false, les colonnes BIT sont affichées sous la forme 'true' ou 'false' An execution time-out of 0 indicates an unlimited wait (no time-out) Un délai d'expiration de 0 indique une attente illimitée (aucun délai d'expiration) Enable SET IMPLICIT_TRANSACTIONS Activer SET IMPLICIT_TRANSACTIONS Enable SET LOCK TIMEOUT option (in milliseconds) Activer l'option SET LOCK TIMEOUT (en millisecondes) Number of XML characters to store after running a query Nombre de caractères XML à stocker après l'exécution d'une requête Enable SET NOCOUNT option Activer l'option SET NOCOUNT Enable SET NOEXEC option Activer l'option SET NOEXEC Enable SET PARSEONLY option Activer l'option SET PARSEONLY Enable SET QUERY_GOVERNOR_COST_LIMIT Activer SET QUERY_GOVERNOR_COST_LIMIT Enable SET QUOTED_IDENTIFIER Activer SET QUOTED_IDENTIFIER Maximum number of rows to return before the server stops processing your query. Nombre maximal de lignes à retourner avant que le serveur arrête le traitement de votre requête. Enable SET STATISTICS IO option Activer l'option SET STATISTICS IO Enable SET STATISTICS TIME option Activer l'option SET STATISTICS TIME Maximum size of text and ntext data returned from a SELECT statement Taille maximale des données text et ntext retournées par une instruction SELECT Enable SET TRANSACTION ISOLATION LEVEL option Activer l'option SET TRANSACTION ISOLATION LEVEL Enable SET XACT_ABORT ON option Activer l'option SET XACT-ABORT ON [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Facultatif] Niveau de journalisation des services de back-end. Azure Data Studio génère un nom de fichier à chaque démarrage et, si le fichier existe déjà, ajoute les entrées de journal à ce fichier. Pour nettoyer les anciens fichiers journaux, consultez les paramètres logRetentionMinutes et logFilesRemovalLimit. Le niveau de suivi par défaut correspond à une faible journalisation. Si vous changez le niveau de détail, vous pouvez obtenir une journalisation massive nécessitant de l'espace disque pour les journaux. Le niveau Erreur inclut le niveau Critique, le niveau Avertissement inclut le niveau Erreur, le niveau Informations inclut le niveau Avertissement et le niveau Détail inclut le niveau Informations Copy Path Copier le chemin Delete Supprimer Manage Access Gérer l'accès New directory Nouveau répertoire Preview Aperçu Save Enregistrer Upload files Charger des fichiers New Notebook Nouveau notebook Open Notebook Ouvrir le notebook Name Nom Compatibility Level Niveau de compatibilité Last Database Backup Dernière sauvegarde de base de données Last Log Backup Dernière sauvegarde de journal Owner Propriétaire Recovery Model Mode de récupération Computer Name Nom de l'ordinateur OS Version Version de système d'exploitation Edition Édition Version Version Tasks and information about your SQL Server Big Data Cluster Tâches et informations concernant votre cluster Big Data SQL Server SQL Server Big Data Cluster Cluster Big Data SQL Server Notebooks Notebooks Search: Clear Search Server Results Recherche : Effacer les résultats du serveur de recherche Configure Python for Notebooks Configurer Python pour Notebooks Design Conception Service Endpoints Points de terminaison de service Install Packages Installer les packages New Spark Job Nouveau travail Spark New Table Nouvelle table Cluster Dashboard Cluster Tableau de bord View Spark History Voir l'historique Spark View Yarn History Voir l'historique Yarn Search: Servers Recherche : Serveurs Show Log File Afficher le fichier journal Submit Spark Job Envoyer le travail Spark Tasks Tâches