Associate schemas to JSON files in the current projectAssocier les schémas aux fichiers JSON dans le projet actifA URL to a schema or a relative path to a schema in the current directoryURL de schéma ou chemin relatif d'un schéma dans le répertoire actifAn array of file patterns to match against when resolving JSON files to schemas.Tableau de modèles de fichiers pour la recherche de correspondances durant la résolution de fichiers JSON en schémas.A file pattern that can contain '*' to match against when resolving JSON files to schemas.Modèle de fichier pouvant contenir '*' pour la recherche de correspondances durant la résolution de fichiers JSON en schémas.The schema definition for the given URL. The schema only needs to be provided to avoid accesses to the schema URL.Définition de schéma pour l'URL indiquée. Le schéma doit être fourni uniquement pour éviter les accès à l'URL du schéma.Enable/disable default JSON formatter (requires restart)Activer/désactiver le formateur JSON par défaut (nécessite un redémarrage)Upload filesCharger des fichiersNew directoryNouveau répertoireDeleteSupprimerPreviewAperçuSaveEnregistrerCopy PathCopier le cheminNew NotebookNouveau notebookOpen NotebookOuvrir le notebookTasks and information about your SQL Server big data clusterTâches et informations concernant votre cluster Big Data SQL ServerSQL Server big data clusterCluster SQL Server Big DataSubmit Spark JobEnvoyer le travail SparkNew Spark JobNouveau travail SparkView Spark HistoryVoir l'historique SparkView Yarn HistoryVoir l'historique YarnTasksTâchesInstall PackagesInstaller les packagesConfigure Python for NotebooksConfigurer Python pour NotebooksSearch: ServersRecherche : ServeursSearch: Clear Search Server ResultsRecherche : Effacer les résultats du serveur de rechercheService EndpointsPoints de terminaison de serviceMSSQL configurationConfiguration de MSSQLShould BIT columns be displayed as numbers (1 or 0)? If false, BIT columns will be displayed as 'true' or 'false'Spécifie si le Colonnes BIT doivent être affichées sous forme de nombre (1 ou 0). Si false, les colonnes BIT seront affichées sous la forme 'true' ou 'false'Should column definitions be aligned?Spécifie si les définitions de colonne doivent être alignéesShould data types be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si les types de données doivent être formatés en MAJUSCULES, minuscules, ou non formatésShould keywords be formatted as UPPERCASE, lowercase, or none (not formatted)Spécifie si les mots-clés doivent être formatés en majuscules, minuscules ou non formatésshould commas be placed at the beginning of each statement in a list e.g. ', mycolumn2' instead of at the end e.g. 'mycolumn1,'Spécifie si les virgules doivent être placées au début de chaque instruction dans une liste (par exemple: ',mycolumn2') plutôt qu’à la fin (par exemple: 'mycolumn1',)Should references to objects in a select statements be split into separate lines? E.g. for 'SELECT C1, C2 FROM T1' both C1 and C2 will be on separate linesSpécifie si les références à des objets dans des instructions select devraient être répartis sur plusieurs lignes ? Par exemple pour 'SELECT C1, C2 FROM T1', C1 et C2 seront sur des lignes distinctes[Optional] Log debug output to the console (View -> Output) and then select appropriate output channel from the dropdown[Facultatif] Journaliser la sortie de débogage dans la console (Voir -> Sortie) et sélectionner le canal de sortie approprié dans la liste déroulante[Optional] Log level for backend services. Azure Data Studio generates a file name every time it starts and if the file already exists the logs entries are appended to that file. For cleanup of old log files see logRetentionMinutes and logFilesRemovalLimit settings. The default tracingLevel does not log much. Changing verbosity could lead to extensive logging and disk space requirements for the logs. Error includes Critical, Warning includes Error, Information includes Warning and Verbose includes Information[Facultatif] Niveau de journalisation des services de back-end. Azure Data Studio génère un nom de fichier à chaque démarrage et, si le fichier existe déjà, ajoute les entrées de journal à ce fichier. Pour nettoyer les anciens fichiers journaux, consultez les paramètres logRetentionMinutes et logFilesRemovalLimit. Le niveau de suivi par défaut correspond à une faible journalisation. Si vous changez le niveau de détail, vous pouvez obtenir une journalisation massive nécessitant de l'espace disque pour les journaux. Le niveau Erreur inclut le niveau Critique, le niveau Avertissement inclut le niveau Erreur, le niveau Informations inclut le niveau Avertissement et le niveau Détail inclut le niveau InformationsNumber of minutes to retain log files for backend services. Default is 1 week.Nombre de minutes de conservation des fichiers journaux pour les services de back-end. La durée par défaut est 1 semaine.Maximum number of old files to remove upon startup that have expired mssql.logRetentionMinutes. Files that do not get cleaned up due to this limitation get cleaned up next time Azure Data Studio starts up.Nombre maximal d'anciens fichiers ayant dépassé mssql.logRetentionMinutes à supprimer au démarrage. Les fichiers qui ne sont pas nettoyés du fait de cette limitation le sont au prochain démarrage d'Azure Data Studio.[Optional] Do not show unsupported platform warnings[Facultatif] Ne pas afficher les avertissements de plateforme non prise en chargeRecovery ModelMode de récupérationLast Database BackupDernière sauvegarde de base de donnéesLast Log BackupDernière sauvegarde du journalCompatibility LevelNiveau de compatibilitéOwnerPropriétaireVersionVersionEditionEditionComputer NameNom de l'ordinateurOS VersionVersion du système d'exploitationEditionEditionPricing TierNiveau tarifaireCompatibility LevelNiveau de compatibilitéOwnerPropriétaireVersionVersionTypeTypeMicrosoft SQL ServerMicrosoft SQL ServerName (optional)Nom (facultatif)Custom name of the connectionNom personnalisé de la connexionServerServeur Name of the SQL Server instanceNom de l'instance SQL ServerDatabaseBase de données The name of the initial catalog or database int the data sourceNom du catalogue ou de la base de données initiaux dans la source de donnéesAuthentication typeType d'authentification Specifies the method of authenticating with SQL ServerSpécifie la méthode d'authentification avec SQL ServerSQL LoginConnexion SQLWindows AuthenticationAuthentification WindowsAzure Active Directory - Universal with MFA supportAzure Active Directory - Authentification universelle avec prise en charge de MFAUser nameNom d'utilisateurIndicates the user ID to be used when connecting to the data sourceIndique l'identifiant utilisateur à utiliser pour la connexion à la source de donnéesPasswordMot de passeIndicates the password to be used when connecting to the data sourceIndique le mot de passe à utiliser pour la connexion à la source de donnéesApplication intentIntention d'applicationDeclares the application workload type when connecting to a serverDéclare le type de charge de travail de l'application pendant la connexion à un serveurAsynchronous processingTraitement asynchroneWhen true, enables usage of the Asynchronous functionality in the .Net Framework Data ProviderQuand la valeur est true, permet d'utiliser la fonctionnalité asynchrone dans le fournisseur de données .Net FrameworkConnect timeoutDélai d'expiration de la connexionThe length of time (in seconds) to wait for a connection to the server before terminating the attempt and generating an errorDurée d'attente (en secondes) d'une connexion au serveur avant de terminer la tentative et de générer une erreurCurrent languageLangage actuelThe SQL Server language record nameNom d'enregistrement de la langue de SQL ServerColumn encryptionChiffrement de colonneDefault column encryption setting for all the commands on the connectionParamètre par défaut de chiffrement de colonne pour toutes les commandes sur la connexionEncryptChiffrerWhen true, SQL Server uses SSL encryption for all data sent between the client and server if the server has a certificate installedQuand la valeur est true, SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur si le serveur a un certificat installéPersist security infoConserver les informations de sécuritéWhen false, security-sensitive information, such as the password, is not returned as part of the connectionQuand la valeur est false, les informations de sécurité, comme le mot de passe, ne sont pas retournées dans le cadre de la connexionTrust server certificateApprouver le certificat de serveurWhen true (and encrypt=true), SQL Server uses SSL encryption for all data sent between the client and server without validating the server certificateQuand la valeur est true (et encrypt=true), SQL Server utilise le chiffrement SSL pour toutes les données envoyées entre le client et le serveur sans valider le certificat de serveurAttached DB file nameNom de fichier de base de données attachéThe name of the primary file, including the full path name, of an attachable databaseNom de fichier principal, y compris le nom de chemin complet, d'une base de données pouvant être attachéeContext connectionConnexion contextuelleWhen true, indicates the connection should be from the SQL server context. Available only when running in the SQL Server processQuand la valeur est true, indique que la connexion doit provenir du contexte du serveur SQL. Disponible uniquement en cas d'exécution dans le processus SQL ServerPortPortConnect retry countNombre de tentatives de connexionNumber of attempts to restore connectionNombre de tentatives de restauration de connexionConnect retry intervalIntervalle entre les tentatives de connexionDelay between attempts to restore connectionDélai entre les tentatives de restauration de connexionApplication nameNom de l'applicationThe name of the applicationNom de l'applicationWorkstation IdID de station de travailThe name of the workstation connecting to SQL ServerNom de la station de travail se connectant à SQL ServerPoolingRegroupementWhen true, the connection object is drawn from the appropriate pool, or if necessary, is created and added to the appropriate poolQuand la valeur est true, l'objet de connexion est tiré du pool approprié ou, si nécessaire, est créé et ajouté au pool appropriéMax pool sizeTaille maximale du poolThe maximum number of connections allowed in the poolNombre maximal de connexions autorisées dans le poolMin pool sizeTaille minimale du poolThe minimum number of connections allowed in the poolNombre minimal de connexions autorisées dans le poolLoad balance timeoutDélai d'expiration de l'équilibrage de chargeThe minimum amount of time (in seconds) for this connection to live in the pool before being destroyedDurée de vie minimale (en secondes) de cette connexion dans le pool avant d'être détruiteReplicationRéplicationUsed by SQL Server in ReplicationUtilisé par SQL Server dans la réplicationAttach DB filenameAttacher le nom de fichier de base de donnéesFailover partnerPartenaire de basculementThe name or network address of the instance of SQL Server that acts as a failover partnerNom ou adresse réseau de l'instance de SQL Server servant de partenaire de basculementMulti subnet failoverBasculement de plusieurs sous-réseauxMultiple active result setsPlusieurs jeux de résultats actifsWhen true, multiple result sets can be returned and read from one connectionQuand la valeur est true, plusieurs jeux de résultats peuvent être retournés et lus sur une même connexionPacket sizeTaille de paquetSize in bytes of the network packets used to communicate with an instance of SQL ServerTaille en octets des paquets réseau utilisés pour communiquer avec une instance de SQL ServerType system versionVersion du système de typeIndicates which server type system then provider will expose through the DataReaderIndique le système de type serveur que le fournisseur expose par le biais de DataReaderNo Spark job batch id is returned from response.{0}[Error] {1}Aucun ID de lot de travail Spark dans la réponse.{0}[Erreur] {1}No log is returned within response.{0}[Error] {1}Aucun journal dans la réponse.{0}[Erreur] {1}Parameters for SparkJobSubmissionModel is illegalLes paramètres de SparkJobSubmissionModel ne sont pas autoriséssubmissionArgs is invalid. soumissionArgs n'est pas valide.livyBatchId is invalid. livyBatchId n'est pas valide.Get Application Id time out. {0}[Log] {1}Le délai d'attente d'obtention de l'ID d'application a expiré. {0}[Journal] {1}Property localFilePath or hdfsFolderPath is not specified. La propriété localeFilePath ou hdfsFolderPath n'est pas spécifiée.Property Path is not specified. Le chemin de propriété n'est pas spécifié. Parameters for SparkJobSubmissionDialog is illegalLes paramètres de SparkJobSubmissionDialog ne sont pas autorisésNew JobNouveau travailCancelAnnulerSubmitEnvoyer{0} Spark Job Submission:Envoi du travail Spark {0} :.......................... Submit Spark Job Start .................................................... Début de l'envoi du travail Spark ..........................GENERALGénéralEnter a name ...Entrer un nom...Job NameNom du travailSpark ClusterCluster SparkPath to a .jar or .py fileChemin d'un fichier .jar ou .pyThe selected local file will be uploaded to HDFS: {0}Le fichier local sélectionné est chargé dans HDFS : {0}JAR/py FileFichier JAR/pyMain ClassClasse principaleArgumentsArgumentsCommand line arguments used in your main class, multiple arguments should be split by space.Arguments de ligne de commande utilisés dans votre classe principale, plusieurs arguments doivent être séparés par un espace.Property Job Name is not specified.Le nom de travail de la propriété n'est pas spécifié.Property JAR/py File is not specified.Le fichier JAR/py de propriétés n'est pas spécifié.Property Main Class is not specified.La classe principale de la propriété n'est pas spécifiée.{0} does not exist in Cluster or exception thrown. {0} n'existe pas dans le cluster ou une exception est levée.The specified HDFS file does not exist. Le fichier HDFS spécifié n'existe pas. SelectSélectionnerError in locating the file due to Error: {0}Erreur de localisation du fichier en raison de l'erreur : {0}ADVANCEDAvancéReference JarsFichiers JAR de référenceJars to be placed in executor working directory. The Jar path needs to be an HDFS Path. Multiple paths should be split by semicolon (;)Fichiers JAR à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier JAR doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference py FilesFichiers py de référencePy Files to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers py à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Reference FilesFichiers de référenceFiles to be placed in executor working directory. The file path needs to be an HDFS Path. Multiple paths should be split by semicolon(;)Fichiers à placer dans le répertoire de travail de l'exécuteur. Le chemin de fichier doit être un chemin HDFS. Plusieurs chemins doivent être séparés par un point-virgule (;)Please select SQL Server with big data cluster. Sélectionnez SQL Server avec le cluster Big Data.No Sql Server is selected.Aucun serveur SQL sélectionné.Error Get File Path: {0}Erreur d'obtention du chemin de fichier : {0}... Creating {0}... Création de {0}Process exited with code {0}Le processus s'est terminé avec le code {0}Invalid Data StructureStructure de données non valideUnable to create WebHDFS client due to missing options: ${0}Impossible de créer le client WebHDFS en raison d'options manquantes : ${0}'${0}' is undefined.'${0}' n'est pas défini.Bad RequestDemande incorrecteUnauthorizedNon autoriséForbiddenInterditNot FoundIntrouvableInternal Server ErrorErreur de serveur interneUnknown ErrorErreur inconnueUnexpected RedirectRedirection inattenduePlease provide the password to connect to HDFS:Fournissez le mot de passe de connexion à HDFS :Session for node {0} does not existLa session du nœud {0} n'existe pasError notifying of node change: {0}Erreur de notification du changement de nœud : {0}RootRacineHDFSHDFSError: {0}Erreur : {0}Cannot delete a connection. Only subfolders and files can be deleted.Impossible de supprimer une connexion. Seuls les sous-dossiers et les fichiers peuvent être supprimés.All FilesTous les fichiersUploadTéléchargerUploading files to HDFSChargement des fichiers dans HDFSUpload operation was canceledL'opération de chargement a été annuléeError uploading files: {0}Erreur de chargement des fichiers : {0}Creating directoryCréation du répertoireOperation was canceledL'opération a été annuléeError on making directory: {0}Erreur de création du répertoire : {0}Enter directory nameEntrer le nom du répertoireError on deleting files: {0}Erreur de suppression des fichiers : {0}Are you sure you want to delete this folder and its contents?Voulez-vous vraiment supprimer ce dossier et son contenu ?Are you sure you want to delete this file?Voulez-vous vraiment supprimer ce fichier ?Saving HDFS FilesEnregistrement des fichiers HDFSSave operation was canceledL'opération d'enregistrement a été annuléeError on saving file: {0}Erreur d'enregistrement du fichier : {0}Generating previewGénération de l'aperçuError on previewing file: {0}Erreur d'affichage de l'aperçu du fichier : {0}Error on copying path: {0}Erreur de copie du chemin : {0}NOTICE: This file has been truncated at {0} for preview. REMARQUE : Ce fichier a été tronqué au niveau de {0} pour l'aperçu.The file has been truncated at {0} for preview.Le fichier a été tronqué au niveau de {0} pour l'aperçu.ConnectionInfo is undefined.ConnectionInfo n'est pas défini.ConnectionInfo.options is undefined.ConnectionInfo.options n'est pas défini.Some missing properties in connectionInfo.options: {0}Des propriétés sont manquantes dans connectionInfo.options : {0}$(sync~spin) {0}...$(sync~spin) {0}...CancelAnnulerCancel operation?Annuler l'opération ?Search Server NamesRechercher dans les noms de serveurStream operation canceled by the userOpération de flux annulée par l'utilisateurYesOuiNoNonThis sample code loads the file into a data frame and shows the first 10 results.Cet exemple de code charge le fichier dans un cadre de données et affiche les 10 premiers résultats.Metrics DashboardTableau de bord des métriquesLog Search DashboardTableau de bord de recherche dans les journauxSpark Job MonitoringSupervision du travail SparkSpark Resource ManagementGestion des ressources SparkCopyCopierApplication ProxyProxy d'applicationCluster Management ServiceService de gestion de clusterHDFS and SparkHDFS et SparkManagement ProxyProxy de gestionManagement ProxyProxy de gestionNotebooksNotebooksOnly .ipynb Notebooks are supportedSeuls les notebooks .ipynb sont pris en chargeUnable to find the file specifiedFichier spécifié introuvableInstalling {0} service to {1}Installation du service {0} sur {1}Installing ServiceInstallation du ServiceInstalledINSTALLÉDownloading {0}Téléchargement de {0} en cours({0} KB)({0} Ko)Downloading ServiceService de téléchargementDone!Terminé !Node Command called without any node passedCommande de nœud appelée sans aucun nœudLocal file will be uploaded to HDFS. Le fichier local est chargé dans HDFS........................... Submit Spark Job End ...................................................... Fin d'envoi du travail Spark ............................Uploading file from local {0} to HDFS folder: {1}Chargement du fichier du {0} local vers le dossier HDFS : {1}Upload file to cluster Succeeded!Le fichier a été chargé dans le cluster.Upload file to cluster Failed. {0}Le chargement du fichier dans le cluster a échoué. {0}Submitting job {0} ... Envoi du travail {0}...The Spark Job has been submitted.Le travail Spark a été envoyé.Spark Job Submission Failed. {0} L'envoi du travail Spark a échoué. {0}YarnUI Url: {0} URL de YarnUI : {0}Spark History Url: {0} URL de l'historique Spark : {0}Get Application Id Failed. {0}L'obtention de l'ID d'application a échoué. {0}Local file {0} does not existed. Le fichier local {0} n'existe pas.No Sql Server big data cluster found.Aucun cluster Big Data SQL Server.