Associate schemas to JSON files in the current project Associer des schémas aux fichiers JSON dans le projet actuel A URL to a schema or a relative path to a schema in the current directory URL de schéma ou chemin relatif d'un schéma dans le répertoire actuel An array of file patterns to match against when resolving JSON files to schemas. Tableau de modèles de fichier à mapper durant la résolution de fichiers JSON en schémas. A file pattern that can contain '*' to match against when resolving JSON files to schemas. Modèle de fichier pouvant contenir '*' à mapper durant la résolution de fichiers JSON en schémas. The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL. Définition de schéma pour l'URL indiquée. Le schéma doit être fourni uniquement pour éviter les accès à l'URL du schéma. Enable/disable default JSON formatter (requires restart) Activer/désactiver le formateur JSON par défaut (nécessite un redémarrage) Upload files Charger des fichiers New directory Nouveau répertoire Delete Supprimer Preview Aperçu Save Enregistrer Copy Path Copier le chemin Manage Access Gérer l'accès New Notebook Nouveau notebook Open Notebook Ouvrir le notebook Tasks and information about your SQL Server Big Data Cluster Tâches et informations concernant votre cluster Big Data SQL Server SQL Server Big Data Cluster Cluster Big Data SQL Server Submit Spark Job Envoyer le travail Spark New Spark Job Nouveau travail Spark View Spark History Voir l'historique Spark View Yarn History Voir l'historique Yarn Tasks Tâches Install Packages Installer les packages Configure Python for Notebooks Configurer Python pour Notebooks Cluster Dashboard Cluster Tableau de bord Search: Servers Recherche : Serveurs Search: Clear Search Server Results Recherche : Effacer les résultats du serveur de recherche Service Endpoints Points de terminaison de service Notebooks Notebooks Show Log File Afficher le fichier journal Disabled Désactivé Enabled Activé Export Notebook as SQL Exporter le notebook au format SQL Export SQL as Notebook Exporter SQL au format Notebook MSSQL configuration Configuration MSSQL Should BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false' Spécifie si les colonnes BIT doivent être affichées sous forme de nombre (1 ou 0). Si la valeur est false, les colonnes BIT sont affichées sous la forme 'true' ou 'false' Number of XML characters to store after running a query Nombre de caractères XML à stocker après l'exécution d'une requête Should column definitions be aligned? Spécifie si les définitions de colonne doivent être alignées Should data types be formatted as UPPERCASE, lowercase, or none (not formatted) Spécifie si la mise en forme des types de données est MAJUSCULES, minuscules ou aucune (sans mise en forme) Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted) Spécifie si la mise en forme des mots clés est MAJUSCULES, minuscules ou aucune (sans mise en forme) should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,' spécifie si des virgules doivent être placées au début de chaque instruction dans une liste (par exemple : ',mycolumn2') plutôt qu'à la fin (par exemple : 'mycolumn1,') Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate lines Spécifie si les références aux objets dans les instructions select doivent être divisées en plusieurs lignes. Par exemple, pour 'SELECT C1, C2 FROM T1', C1 et C2 sont sur des lignes distinctes [Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown [Facultatif] Journaliser la sortie de débogage dans la console (Voir -> Sortie) et sélectionner le canal de sortie approprié dans la liste déroulante [Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information [Facultatif] Niveau de journalisation des services de back-end. Azure Data Studio génère un nom de fichier à chaque démarrage et, si le fichier existe déjà, ajoute les entrées de journal à ce fichier. Pour nettoyer les anciens fichiers journaux, consultez les paramètres logRetentionMinutes et logFilesRemovalLimit. Le niveau de suivi par défaut correspond à une faible journalisation. Si vous changez le niveau de détail, vous pouvez obtenir une journalisation massive nécessitant de l'espace disque pour les journaux. Le niveau Erreur inclut le niveau Critique, le niveau Avertissement inclut le niveau Erreur, le niveau Informations inclut le niveau Avertissement et le niveau Détail inclut le niveau Informations Number of minutes to retain log files for backend services. Default is 1 week. Nombre de minutes de conservation des fichiers journaux pour les services de back-end. La durée par défaut est 1 semaine. Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up. Nombre maximal d'anciens fichiers ayant dépassé mssql.logRetentionMinutes à supprimer au démarrage. Les fichiers qui ne sont pas nettoyés du fait de cette limitation le sont au prochain démarrage d'Azure Data Studio. Should IntelliSense be enabled Indique s'il faut activer IntelliSense Should IntelliSense error checking be enabled Indique s'il faut activer la vérification des erreurs IntelliSense Should IntelliSense suggestions be enabled Indique s'il faut activer les suggestions IntelliSense Should IntelliSense quick info be enabled Indique s'il faut activer Info express IntelliSense Should IntelliSense suggestions be lowercase Indique si les suggestions IntelliSense doivent être en minuscules Maximum number of rows to return before the server stops processing your query. Nombre maximal de lignes à retourner avant que le serveur arrête le traitement de votre requête. Maximum size of text and ntext data returned from a SELECT statement Taille maximale des données text et ntext retournées par une instruction SELECT An execution time-out of 0 indicates an unlimited wait (no time-out) Un délai d'expiration de 0 indique une attente illimitée (aucun délai d'expiration) Enable SET NOCOUNT option Activer l'option SET NOCOUNT Enable SET NOEXEC option Activer l'option SET NOEXEC Enable SET PARSEONLY option Activer l'option SET PARSEONLY Enable SET ARITHABORT option Activer l'option SET ARITHABORT Enable SET STATISTICS TIME option Activer l'option SET STATISTICS TIME Enable SET STATISTICS IO option Activer l'option SET STATISTICS IO Enable SET XACT_ABORT ON option Activer l'option SET XACT-ABORT ON Enable SET TRANSACTION ISOLATION LEVEL option Activer l'option SET TRANSACTION ISOLATION LEVEL Enable SET DEADLOCK_PRIORITY option Activer l'option SET DEADLOCK_PRIORITY Enable SET LOCK TIMEOUT option (in milliseconds) Activer l'option SET LOCK TIMEOUT (en millisecondes) Enable SET QUERY_GOVERNOR_COST_LIMIT Activer SET QUERY_GOVERNOR_COST_LIMIT Enable SET ANSI_DEFAULTS Activer SET ANSI_DEFAULTS Enable SET QUOTED_IDENTIFIER Activer SET QUOTED_IDENTIFIER Enable SET ANSI_NULL_DFLT_ON Activer SET ANSI_NULL_DFLT_ON Enable SET IMPLICIT_TRANSACTIONS Activer SET IMPLICIT_TRANSACTIONS Enable SET CURSOR_CLOSE_ON_COMMIT Activer SET CURSOR_CLOSE_ON_COMMIT Enable SET ANSI_PADDING Activer SET ANSI_PADDING Enable SET ANSI_WARNINGS Activer SET ANSI_WARNINGS Enable SET ANSI_NULLS Activer SET ANSI_NULLS Enable Parameterization for Always Encrypted Activer la paramétrisation pour Always Encrypted [Optional] Do not show unsupported platform warnings [Facultatif] Ne pas afficher les avertissements de plateforme non prise en charge Recovery Model Mode de récupération Last Database Backup Dernière sauvegarde de base de données Last Log Backup Dernière sauvegarde de journal Compatibility Level Niveau de compatibilité Owner Propriétaire Version Version Edition Édition Computer Name Nom de l'ordinateur OS Version Version de système d'exploitation Edition Édition Pricing Tier Niveau tarifaire Compatibility Level Niveau de compatibilité Owner Propriétaire Version Version Type Type Microsoft SQL Server Microsoft SQL Server Name (optional) Nom (facultatif) Custom name of the connection Nom personnalisé de la connexion Server Serveur Name of the SQL Server instance Nom de l'instance SQL Server Database Base de données The name of the initial catalog or database int the data source Nom du catalogue ou de la base de données de départ dans la source de données Authentication type Type d'authentification Specifies the method of authenticating with SQL Server Spécifie la méthode d'authentification avec SQL Server SQL Login Connexion SQL Windows Authentication Authentification Windows Azure Active Directory - Universal with MFA support Azure Active Directory - Authentification universelle avec prise en charge de MFA User name Nom d'utilisateur Indicates the user ID to be used when connecting to the data source Indique l'identifiant utilisateur à utiliser pour la connexion à la source de données Password Mot de passe Indicates the password to be used when connecting to the data source Indique le mot de passe à utiliser pour la connexion à la source de données Application intent Intention d'application Declares the application workload type when connecting to a server Déclare le type de charge de travail de l'application pendant la connexion à un serveur Asynchronous processing Traitement asynchrone When true, enables usage of the Asynchronous functionality in the .Net Framework Data Provider Quand la valeur est true, permet d'utiliser la fonctionnalité asynchrone dans le fournisseur de données .Net Framework Connect timeout Délai d'expiration de la connexion The length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an error Durée d'attente (en secondes) d'une connexion au serveur avant de terminer la tentative et de générer une erreur Current language Langage actuel The SQL Server language record name Nom d'enregistrement de la langue de SQL Server Always Encrypted Always Encrypted Enables or disables Always Encrypted for the connection Active ou désactive Always Encrypted pour la connexion Attestation Protocol Protocole d'attestation Specifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclaves Spécifie un protocole pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécurisées Azure Attestation Azure Attestation Host Guardian Service Service Guardian hôte Enclave Attestation URL URL d'attestation d'enclave Specifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclaves Spécifie un point de terminaison pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécurisées Encrypt Chiffrer When true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installed Quand la valeur est true, SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur si le serveur a un certificat installé Persist security info Conserver les informations de sécurité When false, security-sensitive information, such as the password, is not returned as part of the connection Quand la valeur est false, les informations de sécurité, comme le mot de passe, ne sont pas retournées dans le cadre de la connexion Trust server certificate Approuver le certificat de serveur When true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificate Quand la valeur est true (et encrypt=true), SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur sans valider le certificat de serveur Attached DB file name Nom du fichier de base de données attaché The name of the primary file, including the full path name, of an attachable database Nom de fichier principal, y compris le nom de chemin complet, d'une base de données pouvant être attachée Context connection Connexion contextuelle When true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server process Quand la valeur est true, indique que la connexion doit provenir du contexte du serveur SQL. Disponible uniquement en cas d'exécution dans le processus SQL Server Port Port Connect retry count Nombre de tentatives de connexion Number of attempts to restore connection Nombre de tentatives de restauration de connexion Connect retry interval Intervalle entre les tentatives de connexion Delay between attempts to restore connection Délai entre les tentatives de restauration de connexion Application name Nom de l'application The name of the application Nom de l'application Workstation Id ID de station de travail The name of the workstation connecting to SQL Server Nom de la station de travail se connectant à SQL Server Pooling Regroupement When true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate pool Quand la valeur est true, l'objet de connexion est tiré du pool approprié ou, si nécessaire, est créé et ajouté au pool approprié Max pool size Taille maximale du pool The maximum number of connections allowed in the pool Nombre maximal de connexions autorisées dans le pool Min pool size Taille minimale du pool The minimum number of connections allowed in the pool Nombre minimal de connexions autorisées dans le pool Load balance timeout Délai d'expiration de l'équilibrage de charge The minimum amount of time (in seconds) for this connection to live in the pool before being destroyed Durée de vie minimale (en secondes) de cette connexion dans le pool avant d'être détruite Replication Réplication Used by SQL Server in Replication Utilisé par SQL Server dans la réplication Attach DB filename Attacher le nom de fichier de base de données Failover partner Partenaire de basculement The name or network address of the instance of SQL Server that acts as a failover partner Nom ou adresse réseau de l'instance de SQL Server servant de partenaire de basculement Multi subnet failover Basculement de plusieurs sous-réseaux Multiple active result sets MARS (Multiple Active Result Set) When true, multiple result sets can be returned and read from one connection Quand la valeur est true, plusieurs jeux de résultats peuvent être retournés et lus sur une même connexion Packet size Taille de paquet Size in bytes of the network packets used to communicate with an instance of SQL Server Taille en octets des paquets réseau utilisés pour communiquer avec une instance de SQL Server Type system version Version du système de type Indicates which server type system the provider will expose through the DataReader Indique le système de type serveur que le fournisseur doit exposer par le biais de DataReader Name Nom Status État Size (MB) Taille (Mo) Last backup Dernière sauvegarde Name Nom Node Command called without any node passed Commande de nœud appelée sans aucun nœud Manage Access Gérer l'accès Location : Emplacement : Permissions Autorisations - Owner - Propriétaire Owner Propriétaire Group Groupe - Owning Group - Groupe propriétaire Everyone else Tous les autres User Utilisateur Group Groupe Access Accès Default Par défaut Delete Supprimer Sticky Bit Sticky Bit Inherit Defaults Hériter les valeurs par défaut Read Lire Write Écrire Execute Exécuter Add User or Group Ajouter un utilisateur ou un groupe Enter name Entrer un nom Add Ajouter Named Users and Groups Utilisateurs et groupes nommés Default User and Groups Utilisateur et groupes par défaut User or Group Icon Icône Utilisateur ou Groupe Apply Appliquer Apply Recursively Appliquer de façon récursive Unexpected error occurred while applying changes : {0} Une erreur inattendue s'est produite pendant l'application des changements : {0} Local file will be uploaded to HDFS. Le fichier local est chargé dans HDFS. .......................... Submit Spark Job End ............................ .......................... Fin d'envoi du travail Spark ............................ Uploading file from local {0} to HDFS folder: {1} Chargement du fichier du {0} local vers le dossier HDFS : {1} Upload file to cluster Succeeded! Le fichier a été chargé dans le cluster. Upload file to cluster Failed. {0} Le chargement du fichier dans le cluster a échoué. {0} Submitting job {0} ... Envoi du travail {0}... The Spark Job has been submitted. Le travail Spark a été envoyé. Spark Job Submission Failed. {0} L'envoi du travail Spark a échoué. {0} YarnUI Url: {0} URL de YarnUI : {0} Spark History Url: {0} URL de l'historique Spark : {0} Get Application Id Failed. {0} L'obtention de l'ID d'application a échoué. {0} Local file {0} does not existed. Le fichier local {0} n'existe pas. No SQL Server Big Data Cluster found. Aucun cluster Big Data SQL Server. Please connect to the Spark cluster before View {0} History. Connectez-vous au cluster Spark pour pouvoir voir l'historique de {0}. NOTICE: This file has been truncated at {0} for preview. REMARQUE : Ce fichier a été tronqué au niveau de {0} pour l'aperçu. The file has been truncated at {0} for preview. Le fichier a été tronqué au niveau de {0} pour l'aperçu. $(sync~spin) {0}... $(sync~spin) {0}... Cancel Annuler Cancel operation? Annuler l'opération ? Search Server Names Rechercher dans les noms de serveur No Spark job batch id is returned from response.{0}[Error] {1} Aucun ID de lot de travail Spark dans la réponse.{0}[Erreur] {1} No log is returned within response.{0}[Error] {1} Aucun journal dans la réponse.{0}[Erreur] {1} {0}Please provide the username to connect to the BDC Controller: {0}Fournissez le nom d'utilisateur pour se connecter au contrôleur BDC : Please provide the password to connect to the BDC Controller Fournissez le mot de passe pour se connecter au contrôleur BDC Error: {0}. Erreur : {0}. Username and password are required Le nom d'utilisateur et le mot de passe sont obligatoires All Files Tous les fichiers Upload Charger Uploading files to HDFS Chargement des fichiers dans HDFS Upload operation was canceled L'opération de chargement a été annulée Error uploading files: {0} Erreur de chargement des fichiers : {0} Creating directory Création du répertoire Operation was canceled L'opération a été annulée Error on making directory: {0} Erreur de création du répertoire : {0} Enter directory name Entrer le nom du répertoire Error on deleting files: {0} Erreur de suppression des fichiers : {0} Are you sure you want to delete this folder and its contents? Voulez-vous vraiment supprimer ce dossier et son contenu ? Are you sure you want to delete this file? Voulez-vous vraiment supprimer ce fichier ? Saving HDFS Files Enregistrement des fichiers HDFS Save operation was canceled L'opération d'enregistrement a été annulée Error on saving file: {0} Erreur d'enregistrement du fichier : {0} Generating preview Génération de l'aperçu Error on previewing file: {0} Erreur d'affichage de l'aperçu du fichier : {0} Error on copying path: {0} Erreur de copie du chemin : {0} An unexpected error occurred while opening the Manage Access dialog: {0} Une erreur inattendue s'est produite à l'ouverture de la boîte de dialogue Gérer l'accès : {0} Invalid Data Structure Structure de données non valide Unable to create WebHDFS client due to missing options: ${0} Impossible de créer le client WebHDFS en raison d'options manquantes : ${0} '${0}' is undefined. '${0}' n'est pas défini. Bad Request Demande incorrecte Unauthorized Non autorisé Forbidden Interdit Not Found Introuvable Internal Server Error Erreur de serveur interne Unknown Error Erreur inconnue Unexpected Redirect Redirection inattendue ConnectionInfo is undefined. ConnectionInfo n'est pas défini. ConnectionInfo.options is undefined. ConnectionInfo.options n'est pas défini. Some missing properties in connectionInfo.options: {0} Des propriétés sont manquantes dans connectionInfo.options : {0} View Known Issues Voir les problèmes connus {0} component exited unexpectedly. Please restart Azure Data Studio. Le composant {0} a quitté de manière inattendue. Redémarrez Azure Data Studio. This sample code loads the file into a data frame and shows the first 10 results. Cet exemple de code charge le fichier dans un cadre de données et affiche les 10 premiers résultats. An error occurred converting the SQL document to a Notebook. Error : {0} Erreur pendant la conversion du document SQL au format Notebook. Erreur : {0} An error occurred converting the Notebook document to SQL. Error : {0} Erreur pendant la conversion du document Notebook au format SQL. Erreur : {0} Notebooks Notebooks Only .ipynb Notebooks are supported Seuls les notebooks .ipynb sont pris en charge Could not find the controller endpoint for this instance Le point de terminaison de contrôleur de cette instance est introuvable Applying permission changes recursively under '{0}' Application des changements d'autorisation de manière récursive sous '{0}' Permission changes applied successfully. Les changements d'autorisation ont été appliqués. Applying permission changes to '{0}'. Application des changements d'autorisation à '{0}'. Error applying permission changes: {0} Erreur d'application des changements d'autorisation : {0} Yes Oui No Non Select other SQL Server Sélectionner un autre serveur SQL Please select SQL Server with Big Data Cluster. Sélectionnez SQL Server avec le cluster Big Data. No SQL Server is selected. Aucun serveur SQL sélectionné. The selected server does not belong to a SQL Server Big Data Cluster Le serveur sélectionné n'appartient pas à un cluster Big Data SQL Server Error Get File Path: {0} Erreur d'obtention du chemin de fichier : {0} Parameters for SparkJobSubmissionDialog is illegal Les paramètres de SparkJobSubmissionDialog ne sont pas autorisés New Job Nouveau travail Cancel Annuler Submit Envoyer {0} Spark Job Submission: Envoi du travail Spark {0} : .......................... Submit Spark Job Start .......................... .......................... Début de l'envoi du travail Spark .......................... Parameters for SparkJobSubmissionModel is illegal Les paramètres de SparkJobSubmissionModel ne sont pas autorisés submissionArgs is invalid. soumissionArgs n'est pas valide. livyBatchId is invalid. livyBatchId n'est pas valide. Get Application Id time out. {0}[Log] {1} Le délai d'obtention de l'ID d'application a expiré. {0}[Journal] {1} Property localFilePath or hdfsFolderPath is not specified. La propriété localeFilePath ou hdfsFolderPath n'est pas spécifiée. Property Path is not specified. Le chemin de propriété n'est pas spécifié. GENERAL GÉNÉRAL Enter a name ... Entrer un nom... Job Name Nom du travail Spark Cluster Cluster Spark Path to a .jar or .py file Chemin d'un fichier .jar ou .py The selected local file will be uploaded to HDFS: {0} Le fichier local sélectionné est chargé dans HDFS : {0} JAR/py File Fichier JAR/py Main Class Classe principale Arguments Arguments Command line arguments used in your main class, multiple arguments should be split by space. Arguments de ligne de commande utilisés dans votre classe principale, plusieurs arguments doivent être séparés par un espace. Property Job Name is not specified. Le nom de travail de la propriété n'est pas spécifié. Property JAR/py File is not specified. Le fichier JAR/py de propriétés n'est pas spécifié. Property Main Class is not specified. La classe principale de la propriété n'est pas spécifiée. {0} does not exist in Cluster or exception thrown. {0} n'existe pas dans le cluster ou une exception est levée. The specified HDFS file does not exist. Le fichier HDFS spécifié n'existe pas. Select Sélectionner Error in locating the file due to Error: {0} Erreur de localisation du fichier en raison de l'erreur : {0} ADVANCED AVANCÉ Reference Jars Fichiers JAR de référence Jars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;) Fichiers JAR à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier JAR doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Reference py Files Fichiers py de référence Py Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Fichiers py à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Reference Files Fichiers de référence Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;) Fichiers à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;) Driver Memory Mémoire de pilote Amount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G. Quantité de mémoire à allouer au pilote. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G. Driver Cores Cœurs de pilote Amount of CPU cores to allocate to the driver. Quantité de cœurs de processeur à allouer au pilote. Executor Memory Mémoire d'exécuteur Amount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G. Quantité de mémoire à allouer à l'exécuteur. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G. Executor Cores Cœurs d'exécuteur Amount of CPU cores to allocate to the executor. Quantité de cœurs de processeur à allouer à l'exécuteur. Executor Count Nombre d'exécuteurs Number of instances of the executor to run. Nombre d'instances de l'exécuteur à exécuter. Queue Name Nom de la file d'attente Name of the Spark queue to execute the session in. Nom de la file d'attente Spark où exécuter la session. Configuration Values Valeurs de configuration List of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'. Liste des paires nom/valeur contenant des valeurs de configuration Spark. Encodé sous forme de dictionnaire JSON. Exemple : « {"name":"value", "name2":"value2"} ». Please provide the username to connect to HDFS: Fournissez le nom d'utilisateur pour se connecter à HDFS : Please provide the password to connect to HDFS: Fournissez le mot de passe de connexion à HDFS : Session for node {0} does not exist La session du nœud {0} n'existe pas Error notifying of node change: {0} Erreur de notification du changement de nœud : {0} HDFS HDFS Root Racine Error: {0} Erreur : {0} Cannot delete a connection. Only subfolders and files can be deleted. Impossible de supprimer une connexion. Seuls les sous-dossiers et les fichiers peuvent être supprimés. Stream operation canceled by the user Opération de flux annulée par l'utilisateur Metrics Dashboard Tableau de bord des métriques Log Search Dashboard Tableau de bord de recherche dans les journaux Spark Jobs Management and Monitoring Dashboard Tableau de bord de gestion et de supervision de travaux Spark Spark Diagnostics and Monitoring Dashboard Tableau de bord de diagnostic et de supervision Spark Copy Copier Application Proxy Proxy d'application Cluster Management Service Service de gestion de cluster Gateway to access HDFS files, Spark Passerelle d'accès aux fichiers HDFS, à Spark Management Proxy Proxy de gestion Management Proxy Proxy de gestion SQL Server Master Instance Front-End Front-end de l'instance maître SQL Server Metrics Dashboard Tableau de bord des métriques Log Search Dashboard Tableau de bord de recherche dans les journaux Spark Diagnostics and Monitoring Dashboard Tableau de bord de diagnostic et de supervision Spark Spark Jobs Management and Monitoring Dashboard Tableau de bord de gestion et de supervision de travaux Spark HDFS File System Proxy Proxy du système de fichiers HDFS Proxy for running Spark statements, jobs, applications Proxy pour exécuter les instructions, travaux, applications Spark {0} Started {0} démarré Starting {0} Démarrage de {0} Failed to start {0} Échec du démarrage de {0} Installing {0} to {1} Installation de {0} sur {1} Installing {0} Installation de {0} Installed {0} {0} installé Downloading {0} Téléchargement de {0} ({0} KB) ({0} Ko) Downloading {0} Téléchargement de {0} Done installing {0} Installation de {0} effectuée Extracted {0} ({1}/{2}) {0} extrait ({1}/{2}) Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query. Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'est disponible. Ajoutez un compte Azure lié et réessayez la requête. Please select a linked Azure account: Sélectionnez un compte Azure lié : Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted. Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'a été sélectionné. Réessayez la requête et sélectionnez un compte Azure lié quand vous y êtes invité. The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted. Le compte Azure configuré pour {0} n'a pas les autorisations suffisantes pour permettre à Azure Key Vault d'accéder à une clé principale de colonne pour Always Encrypted.