Associate schemas to JSON files in the current projectAssocier des schémas aux fichiers JSON dans le projet actuelA URL to a schema or a relative path to a schema in the current directoryURL de schéma ou chemin relatif d'un schéma dans le répertoire actuelAn array of file patterns to match against when resolving JSON files to schemas.Tableau de modèles de fichier à mapper durant la résolution de fichiers JSON en schémas.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Modèle de fichier pouvant contenir '*' à mapper durant la résolution de fichiers JSON en schémas.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Définition de schéma pour l'URL indiquée. Le schéma doit être fourni uniquement pour éviter les accès à l'URL du schéma.Enable/disable default JSON formatter (requires restart)Activer/désactiver le formateur JSON par défaut (nécessite un redémarrage)Upload filesCharger des fichiersNew directoryNouveau répertoireDeleteSupprimerPreviewAperçuSaveEnregistrerCopy PathCopier le cheminManage AccessGérer l'accèsNew NotebookNouveau notebookOpen NotebookOuvrir le notebookTasks and information about your SQL Server Big Data ClusterTâches et informations concernant votre cluster Big Data SQL ServerSQL Server Big Data ClusterCluster Big Data SQL ServerSubmit Spark JobEnvoyer le travail SparkNew Spark JobNouveau travail SparkView Spark HistoryVoir l'historique SparkView Yarn HistoryVoir l'historique YarnTasksTâchesInstall PackagesInstaller les packagesConfigure Python for NotebooksConfigurer Python pour NotebooksCluster
DashboardCluster
Tableau de bordSearch: ServersRecherche : ServeursSearch: Clear Search Server ResultsRecherche : Effacer les résultats du serveur de rechercheService EndpointsPoints de terminaison de serviceNotebooksNotebooksShow Log FileAfficher le fichier journalDisabledDésactivéEnabledActivéExport Notebook as SQLExporter le notebook au format SQLExport SQL as NotebookExporter SQL au format NotebookMSSQL configurationConfiguration MSSQLShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Spécifie si les colonnes BIT doivent être affichées sous forme de nombre (1 ou 0). Si la valeur est false, les colonnes BIT sont affichées sous la forme 'true' ou 'false'Number of XML characters to store after running a queryNombre de caractères XML à stocker après l'exécution d'une requêteShould column definitions be aligned?Spécifie si les définitions de colonne doivent être alignéesShould data types be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si la mise en forme des types de données est MAJUSCULES, minuscules ou aucune (sans mise en forme)Should keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si la mise en forme des mots clés est MAJUSCULES, minuscules ou aucune (sans mise en forme)should commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'spécifie si des virgules doivent être placées au début de chaque instruction dans une liste (par exemple : ',mycolumn2') plutôt qu'à la fin (par exemple : 'mycolumn1,')Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSpécifie si les références aux objets dans les instructions select doivent être divisées en plusieurs lignes. Par exemple, pour 'SELECT C1, C2 FROM T1', C1 et C2 sont sur des lignes distinctes[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Facultatif] Journaliser la sortie de débogage dans la console (Voir -> Sortie) et sélectionner le canal de sortie approprié dans la liste déroulante[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Facultatif] Niveau de journalisation des services de back-end. Azure Data Studio génère un nom de fichier à chaque démarrage et, si le fichier existe déjà, ajoute les entrées de journal à ce fichier. Pour nettoyer les anciens fichiers journaux, consultez les paramètres logRetentionMinutes et logFilesRemovalLimit. Le niveau de suivi par défaut correspond à une faible journalisation. Si vous changez le niveau de détail, vous pouvez obtenir une journalisation massive nécessitant de l'espace disque pour les journaux. Le niveau Erreur inclut le niveau Critique, le niveau Avertissement inclut le niveau Erreur, le niveau Informations inclut le niveau Avertissement et le niveau Détail inclut le niveau InformationsNumber of minutes to retain log files for backend services. Default is 1 week.Nombre de minutes de conservation des fichiers journaux pour les services de back-end. La durée par défaut est 1 semaine.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Nombre maximal d'anciens fichiers ayant dépassé mssql.logRetentionMinutes à supprimer au démarrage. Les fichiers qui ne sont pas nettoyés du fait de cette limitation le sont au prochain démarrage d'Azure Data Studio.Should IntelliSense be enabledIndique s'il faut activer IntelliSenseShould IntelliSense error checking be enabledIndique s'il faut activer la vérification des erreurs IntelliSenseShould IntelliSense suggestions be enabledIndique s'il faut activer les suggestions IntelliSenseShould IntelliSense quick info be enabledIndique s'il faut activer Info express IntelliSenseShould IntelliSense suggestions be lowercaseIndique si les suggestions IntelliSense doivent être en minusculesMaximum number of rows to return before the server stops processing your query.Nombre maximal de lignes à retourner avant que le serveur arrête le traitement de votre requête.Maximum size of text and ntext data returned from a SELECT statementTaille maximale des données text et ntext retournées par une instruction SELECTAn execution time-out of 0 indicates an unlimited wait (no time-out)Un délai d'expiration de 0 indique une attente illimitée (aucun délai d'expiration)Enable SET NOCOUNT optionActiver l'option SET NOCOUNTEnable SET NOEXEC optionActiver l'option SET NOEXECEnable SET PARSEONLY optionActiver l'option SET PARSEONLYEnable SET ARITHABORT optionActiver l'option SET ARITHABORTEnable SET STATISTICS TIME optionActiver l'option SET STATISTICS TIMEEnable SET STATISTICS IO optionActiver l'option SET STATISTICS IOEnable SET XACT_ABORT ON optionActiver l'option SET XACT-ABORT ONEnable SET TRANSACTION ISOLATION LEVEL optionActiver l'option SET TRANSACTION ISOLATION LEVELEnable SET DEADLOCK_PRIORITY optionActiver l'option SET DEADLOCK_PRIORITYEnable SET LOCK TIMEOUT option (in milliseconds)Activer l'option SET LOCK TIMEOUT (en millisecondes)Enable SET QUERY_GOVERNOR_COST_LIMITActiver SET QUERY_GOVERNOR_COST_LIMITEnable SET ANSI_DEFAULTSActiver SET ANSI_DEFAULTSEnable SET QUOTED_IDENTIFIERActiver SET QUOTED_IDENTIFIEREnable SET ANSI_NULL_DFLT_ONActiver SET ANSI_NULL_DFLT_ONEnable SET IMPLICIT_TRANSACTIONSActiver SET IMPLICIT_TRANSACTIONSEnable SET CURSOR_CLOSE_ON_COMMITActiver SET CURSOR_CLOSE_ON_COMMITEnable SET ANSI_PADDINGActiver SET ANSI_PADDINGEnable SET ANSI_WARNINGSActiver SET ANSI_WARNINGSEnable SET ANSI_NULLSActiver SET ANSI_NULLSEnable Parameterization for Always EncryptedActiver la paramétrisation pour Always Encrypted[Optional] Do not show unsupported platform warnings[Facultatif] Ne pas afficher les avertissements de plateforme non prise en chargeRecovery ModelMode de récupérationLast Database BackupDernière sauvegarde de base de donnéesLast Log BackupDernière sauvegarde de journalCompatibility LevelNiveau de compatibilitéOwnerPropriétaireVersionVersionEditionÉditionComputer NameNom de l'ordinateurOS VersionVersion de système d'exploitationEditionÉditionPricing TierNiveau tarifaireCompatibility LevelNiveau de compatibilitéOwnerPropriétaireVersionVersionTypeTypeMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Nom (facultatif)Custom name of the connectionNom personnalisé de la connexionServerServeurName of the SQL Server instanceNom de l'instance SQL ServerDatabaseBase de donnéesThe name of the initial catalog or database int the data sourceNom du catalogue ou de la base de données de départ dans la source de donnéesAuthentication typeType d'authentificationSpecifies the method of authenticating with SQL ServerSpécifie la méthode d'authentification avec SQL ServerSQL LoginConnexion SQLWindows AuthenticationAuthentification WindowsAzure Active Directory - Universal with MFA supportAzure Active Directory - Authentification universelle avec prise en charge de MFAUser nameNom d'utilisateurIndicates the user ID to be used when connecting to the data sourceIndique l'identifiant utilisateur à utiliser pour la connexion à la source de donnéesPasswordMot de passeIndicates the password to be used when connecting to the data sourceIndique le mot de passe à utiliser pour la connexion à la source de donnéesApplication intentIntention d'applicationDeclares the application workload type when connecting to a serverDéclare le type de charge de travail de l'application pendant la connexion à un serveurAsynchronous processingTraitement asynchroneWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderQuand la valeur est true, permet d'utiliser la fonctionnalité asynchrone dans le fournisseur de données .Net FrameworkConnect timeoutDélai d'expiration de la connexionThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorDurée d'attente (en secondes) d'une connexion au serveur avant de terminer la tentative et de générer une erreurCurrent languageLangage actuelThe SQL Server language record nameNom d'enregistrement de la langue de SQL ServerAlways EncryptedAlways EncryptedEnables or disables Always Encrypted for the connectionActive ou désactive Always Encrypted pour la connexionAttestation ProtocolProtocole d'attestationSpecifies a protocol for attesting a server-side enclave used with Always Encrypted with secure enclavesSpécifie un protocole pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécuriséesAzure AttestationAzure AttestationHost Guardian ServiceService Guardian hôteEnclave Attestation URLURL d'attestation d'enclaveSpecifies an endpoint for attesting a server-side enclave used with Always Encrypted with secure enclavesSpécifie un point de terminaison pour attester une enclave côté serveur utilisée avec Always Encrypted avec des enclaves sécuriséesEncryptChiffrerWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedQuand la valeur est true, SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur si le serveur a un certificat installéPersist security infoConserver les informations de sécuritéWhen false, security-sensitive information, such as the password, is not returned as part of the connectionQuand la valeur est false, les informations de sécurité, comme le mot de passe, ne sont pas retournées dans le cadre de la connexionTrust server certificateApprouver le certificat de serveurWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateQuand la valeur est true (et encrypt=true), SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur sans valider le certificat de serveurAttached DB file nameNom du fichier de base de données attachéThe name of the primary file, including the full path name, of an attachable databaseNom de fichier principal, y compris le nom de chemin complet, d'une base de données pouvant être attachéeContext connectionConnexion contextuelleWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processQuand la valeur est true, indique que la connexion doit provenir du contexte du serveur SQL. Disponible uniquement en cas d'exécution dans le processus SQL ServerPortPortConnect retry countNombre de tentatives de connexionNumber of attempts to restore connectionNombre de tentatives de restauration de connexionConnect retry intervalIntervalle entre les tentatives de connexionDelay between attempts to restore connectionDélai entre les tentatives de restauration de connexionApplication nameNom de l'applicationThe name of the applicationNom de l'applicationWorkstation IdID de station de travailThe name of the workstation connecting to SQL ServerNom de la station de travail se connectant à SQL ServerPoolingRegroupementWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolQuand la valeur est true, l'objet de connexion est tiré du pool approprié ou, si nécessaire, est créé et ajouté au pool appropriéMax pool sizeTaille maximale du poolThe maximum number of connections allowed in the poolNombre maximal de connexions autorisées dans le poolMin pool sizeTaille minimale du poolThe minimum number of connections allowed in the poolNombre minimal de connexions autorisées dans le poolLoad balance timeoutDélai d'expiration de l'équilibrage de chargeThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedDurée de vie minimale (en secondes) de cette connexion dans le pool avant d'être détruiteReplicationRéplicationUsed by SQL Server in ReplicationUtilisé par SQL Server dans la réplicationAttach DB filenameAttacher le nom de fichier de base de donnéesFailover partnerPartenaire de basculementThe name or network address of the instance of SQL Server that acts as a failover partnerNom ou adresse réseau de l'instance de SQL Server servant de partenaire de basculementMulti subnet failoverBasculement de plusieurs sous-réseauxMultiple active result setsMARS (Multiple Active Result Set)When true, multiple result sets can be returned and read from one connectionQuand la valeur est true, plusieurs jeux de résultats peuvent être retournés et lus sur une même connexionPacket sizeTaille de paquetSize in bytes of the network packets used to communicate with an instance of SQL ServerTaille en octets des paquets réseau utilisés pour communiquer avec une instance de SQL ServerType system versionVersion du système de typeIndicates which server type system the provider will expose through the DataReaderIndique le système de type serveur que le fournisseur doit exposer par le biais de DataReaderNameNomStatusÉtatSize (MB)Taille (Mo)Last backupDernière sauvegardeNameNomNode Command called without any node passedCommande de nœud appelée sans aucun nœudManage AccessGérer l'accèsLocation : Emplacement : PermissionsAutorisations - Owner - PropriétaireOwnerPropriétaireGroupGroupe - Owning Group - Groupe propriétaireEveryone elseTous les autresUserUtilisateurGroupGroupeAccessAccèsDefaultPar défautDeleteSupprimerSticky BitSticky BitInherit DefaultsHériter les valeurs par défautReadLireWriteÉcrireExecuteExécuterAdd User or GroupAjouter un utilisateur ou un groupeEnter nameEntrer un nomAddAjouterNamed Users and GroupsUtilisateurs et groupes nommésDefault User and GroupsUtilisateur et groupes par défautUser or Group IconIcône Utilisateur ou GroupeApplyAppliquerApply RecursivelyAppliquer de façon récursiveUnexpected error occurred while applying changes : {0}Une erreur inattendue s'est produite pendant l'application des changements : {0}Local file will be uploaded to HDFS. Le fichier local est chargé dans HDFS. .......................... Submit Spark Job End ...................................................... Fin d'envoi du travail Spark ............................Uploading file from local {0} to HDFS folder: {1}Chargement du fichier du {0} local vers le dossier HDFS : {1}Upload file to cluster Succeeded!Le fichier a été chargé dans le cluster.Upload file to cluster Failed. {0}Le chargement du fichier dans le cluster a échoué. {0}Submitting job {0} ... Envoi du travail {0}... The Spark Job has been submitted.Le travail Spark a été envoyé.Spark Job Submission Failed. {0} L'envoi du travail Spark a échoué. {0} YarnUI Url: {0} URL de YarnUI : {0} Spark History Url: {0} URL de l'historique Spark : {0} Get Application Id Failed. {0}L'obtention de l'ID d'application a échoué. {0}Local file {0} does not existed. Le fichier local {0} n'existe pas. No SQL Server Big Data Cluster found.Aucun cluster Big Data SQL Server.Please connect to the Spark cluster before View {0} History.Connectez-vous au cluster Spark pour pouvoir voir l'historique de {0}.NOTICE: This file has been truncated at {0} for preview. REMARQUE : Ce fichier a été tronqué au niveau de {0} pour l'aperçu. The file has been truncated at {0} for preview.Le fichier a été tronqué au niveau de {0} pour l'aperçu.$(sync~spin) {0}...$(sync~spin) {0}...CancelAnnulerCancel operation?Annuler l'opération ?Search Server NamesRechercher dans les noms de serveurNo Spark job batch id is returned from response.{0}[Error] {1}Aucun ID de lot de travail Spark dans la réponse.{0}[Erreur] {1}No log is returned within response.{0}[Error] {1}Aucun journal dans la réponse.{0}[Erreur] {1}{0}Please provide the username to connect to the BDC Controller:{0}Fournissez le nom d'utilisateur pour se connecter au contrôleur BDC :Please provide the password to connect to the BDC ControllerFournissez le mot de passe pour se connecter au contrôleur BDCError: {0}. Erreur : {0}. Username and password are requiredLe nom d'utilisateur et le mot de passe sont obligatoiresAll FilesTous les fichiersUploadChargerUploading files to HDFSChargement des fichiers dans HDFSUpload operation was canceledL'opération de chargement a été annuléeError uploading files: {0}Erreur de chargement des fichiers : {0}Creating directoryCréation du répertoireOperation was canceledL'opération a été annuléeError on making directory: {0}Erreur de création du répertoire : {0}Enter directory nameEntrer le nom du répertoireError on deleting files: {0}Erreur de suppression des fichiers : {0}Are you sure you want to delete this folder and its contents?Voulez-vous vraiment supprimer ce dossier et son contenu ?Are you sure you want to delete this file?Voulez-vous vraiment supprimer ce fichier ?Saving HDFS FilesEnregistrement des fichiers HDFSSave operation was canceledL'opération d'enregistrement a été annuléeError on saving file: {0}Erreur d'enregistrement du fichier : {0}Generating previewGénération de l'aperçuError on previewing file: {0}Erreur d'affichage de l'aperçu du fichier : {0}Error on copying path: {0}Erreur de copie du chemin : {0}An unexpected error occurred while opening the Manage Access dialog: {0}Une erreur inattendue s'est produite à l'ouverture de la boîte de dialogue Gérer l'accès : {0}Invalid Data StructureStructure de données non valideUnable to create WebHDFS client due to missing options: ${0}Impossible de créer le client WebHDFS en raison d'options manquantes : ${0}'${0}' is undefined.'${0}' n'est pas défini.Bad RequestDemande incorrecteUnauthorizedNon autoriséForbiddenInterditNot FoundIntrouvableInternal Server ErrorErreur de serveur interneUnknown ErrorErreur inconnueUnexpected RedirectRedirection inattendueConnectionInfo is undefined.ConnectionInfo n'est pas défini.ConnectionInfo.options is undefined.ConnectionInfo.options n'est pas défini.Some missing properties in connectionInfo.options: {0}Des propriétés sont manquantes dans connectionInfo.options : {0}View Known IssuesVoir les problèmes connus{0} component exited unexpectedly. Please restart Azure Data Studio.Le composant {0} a quitté de manière inattendue. Redémarrez Azure Data Studio.This sample code loads the file into a data frame and shows the first 10 results.Cet exemple de code charge le fichier dans un cadre de données et affiche les 10 premiers résultats.An error occurred converting the SQL document to a Notebook. Error : {0}Erreur pendant la conversion du document SQL au format Notebook. Erreur : {0}An error occurred converting the Notebook document to SQL. Error : {0}Erreur pendant la conversion du document Notebook au format SQL. Erreur : {0}NotebooksNotebooksOnly .ipynb Notebooks are supportedSeuls les notebooks .ipynb sont pris en chargeCould not find the controller endpoint for this instanceLe point de terminaison de contrôleur de cette instance est introuvableApplying permission changes recursively under '{0}'Application des changements d'autorisation de manière récursive sous '{0}'Permission changes applied successfully.Les changements d'autorisation ont été appliqués.Applying permission changes to '{0}'.Application des changements d'autorisation à '{0}'.Error applying permission changes: {0}Erreur d'application des changements d'autorisation : {0}YesOuiNoNonSelect other SQL ServerSélectionner un autre serveur SQLPlease select SQL Server with Big Data Cluster.Sélectionnez SQL Server avec le cluster Big Data.No SQL Server is selected.Aucun serveur SQL sélectionné.The selected server does not belong to a SQL Server Big Data ClusterLe serveur sélectionné n'appartient pas à un cluster Big Data SQL ServerError Get File Path: {0}Erreur d'obtention du chemin de fichier : {0}Parameters for SparkJobSubmissionDialog is illegalLes paramètres de SparkJobSubmissionDialog ne sont pas autorisésNew JobNouveau travailCancelAnnulerSubmitEnvoyer{0} Spark Job Submission:Envoi du travail Spark {0} :.......................... Submit Spark Job Start .................................................... Début de l'envoi du travail Spark ..........................Parameters for SparkJobSubmissionModel is illegalLes paramètres de SparkJobSubmissionModel ne sont pas autoriséssubmissionArgs is invalid. soumissionArgs n'est pas valide. livyBatchId is invalid. livyBatchId n'est pas valide. Get Application Id time out. {0}[Log] {1}Le délai d'obtention de l'ID d'application a expiré. {0}[Journal] {1}Property localFilePath or hdfsFolderPath is not specified. La propriété localeFilePath ou hdfsFolderPath n'est pas spécifiée. Property Path is not specified. Le chemin de propriété n'est pas spécifié. GENERALGÉNÉRALEnter a name ...Entrer un nom...Job NameNom du travailSpark ClusterCluster SparkPath to a .jar or .py fileChemin d'un fichier .jar ou .pyThe selected local file will be uploaded to HDFS: {0}Le fichier local sélectionné est chargé dans HDFS : {0}JAR/py FileFichier JAR/pyMain ClassClasse principaleArgumentsArgumentsCommand line arguments used in your main class, multiple arguments should be split by space.Arguments de ligne de commande utilisés dans votre classe principale, plusieurs arguments doivent être séparés par un espace.Property Job Name is not specified.Le nom de travail de la propriété n'est pas spécifié.Property JAR/py File is not specified.Le fichier JAR/py de propriétés n'est pas spécifié.Property Main Class is not specified.La classe principale de la propriété n'est pas spécifiée.{0} does not exist in Cluster or exception thrown. {0} n'existe pas dans le cluster ou une exception est levée. The specified HDFS file does not exist. Le fichier HDFS spécifié n'existe pas. SelectSélectionnerError in locating the file due to Error: {0}Erreur de localisation du fichier en raison de l'erreur : {0}ADVANCEDAVANCÉReference JarsFichiers JAR de référenceJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)Fichiers JAR à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier JAR doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference py FilesFichiers py de référencePy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers py à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference FilesFichiers de référenceFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Driver MemoryMémoire de piloteAmount of memory to allocate to the driver. Specify units as part of value. Example 512M or 2G.Quantité de mémoire à allouer au pilote. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G.Driver CoresCœurs de piloteAmount of CPU cores to allocate to the driver.Quantité de cœurs de processeur à allouer au pilote.Executor MemoryMémoire d'exécuteurAmount of memory to allocate to the executor. Specify units as part of value. Example 512M or 2G.Quantité de mémoire à allouer à l'exécuteur. Spécifiez des unités dans la valeur. Par exemple, 512M ou 2G.Executor CoresCœurs d'exécuteurAmount of CPU cores to allocate to the executor.Quantité de cœurs de processeur à allouer à l'exécuteur.Executor CountNombre d'exécuteursNumber of instances of the executor to run.Nombre d'instances de l'exécuteur à exécuter.Queue NameNom de la file d'attenteName of the Spark queue to execute the session in.Nom de la file d'attente Spark où exécuter la session.Configuration ValuesValeurs de configurationList of name value pairs containing Spark configuration values. Encoded as JSON dictionary. Example: '{"name":"value", "name2":"value2"}'.Liste des paires nom/valeur contenant des valeurs de configuration Spark. Encodé sous forme de dictionnaire JSON. Exemple : « {"name":"value", "name2":"value2"} ».Please provide the username to connect to HDFS:Fournissez le nom d'utilisateur pour se connecter à HDFS :Please provide the password to connect to HDFS:Fournissez le mot de passe de connexion à HDFS :Session for node {0} does not existLa session du nœud {0} n'existe pasError notifying of node change: {0}Erreur de notification du changement de nœud : {0}HDFSHDFSRootRacineError: {0}Erreur : {0}Cannot delete a connection. Only subfolders and files can be deleted.Impossible de supprimer une connexion. Seuls les sous-dossiers et les fichiers peuvent être supprimés.Stream operation canceled by the userOpération de flux annulée par l'utilisateurMetrics DashboardTableau de bord des métriquesLog Search DashboardTableau de bord de recherche dans les journauxSpark Jobs Management and Monitoring DashboardTableau de bord de gestion et de supervision de travaux SparkSpark Diagnostics and Monitoring DashboardTableau de bord de diagnostic et de supervision SparkCopyCopierApplication ProxyProxy d'applicationCluster Management ServiceService de gestion de clusterGateway to access HDFS files, SparkPasserelle d'accès aux fichiers HDFS, à SparkManagement ProxyProxy de gestionManagement ProxyProxy de gestionSQL Server Master Instance Front-EndFront-end de l'instance maître SQL ServerMetrics DashboardTableau de bord des métriquesLog Search DashboardTableau de bord de recherche dans les journauxSpark Diagnostics and Monitoring DashboardTableau de bord de diagnostic et de supervision SparkSpark Jobs Management and Monitoring DashboardTableau de bord de gestion et de supervision de travaux SparkHDFS File System ProxyProxy du système de fichiers HDFSProxy for running Spark statements, jobs, applicationsProxy pour exécuter les instructions, travaux, applications Spark{0} Started{0} démarréStarting {0}Démarrage de {0}Failed to start {0}Échec du démarrage de {0}Installing {0} to {1}Installation de {0} sur {1}Installing {0}Installation de {0}Installed {0}{0} installéDownloading {0}Téléchargement de {0}({0} KB)({0} Ko)Downloading {0}Téléchargement de {0}Done installing {0}Installation de {0} effectuéeExtracted {0} ({1}/{2}){0} extrait ({1}/{2})Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account is available. Please add a linked Azure account and retry the query.Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'est disponible. Ajoutez un compte Azure lié et réessayez la requête.Please select a linked Azure account:Sélectionnez un compte Azure lié :Azure Data Studio needs to contact Azure Key Vault to access a column master key for Always Encrypted, but no linked Azure account was selected. Please retry the query and select a linked Azure account when prompted.Azure Data Studio doit contacter Azure Key Vault pour accéder à une clé principale de colonne pour Always Encrypted, mais aucun compte Azure lié n'a été sélectionné. Réessayez la requête et sélectionnez un compte Azure lié quand vous y êtes invité.The configured Azure account for {0} does not have sufficient permissions for Azure Key Vault to access a column master key for Always Encrypted.Le compte Azure configuré pour {0} n'a pas les autorisations suffisantes pour permettre à Azure Key Vault d'accéder à une clé principale de colonne pour Always Encrypted.