La profession d’avocat·e ne saurait rester insensible aux avancées récentes en matière d’intelligence artificielle générative (IA), dont la démocratisation progressive et le développement rapide pourraient, à terme, modifier certaines pratiques. Pour l’avocat·e rompu·e à la négociation et à la rédaction de contrats, ces évolutions suscitent simultanément un intérêt et des interrogations légitimes.
Face à l’avènement de l’IA, le Conseil de la Fédération Suisse des Avocats (FSA) a adopté en juin 2024 des lignes directrices de la FSA portant sur l’utilisation de l’IA[1]. Ces recommandations offrent un cadre de référence pour une utilisation responsable de l’IA par les avocat.e.s, notamment dans la pratique contractuelle.
Selon les données empiriques du Liquid Legal Institute (2023), 38,2 % des tâches effectuées au sein des études d’avocat·e·s présentent un caractère répétitif et potentiellement automatisable. 55,8 % des études d’avocat·e·s ont identifié la rédaction de contrats comme l’une des principales tâches susceptibles de bénéficier de l’apport de l’IA, après la recherche juridique (79,7 %) et l’analyse de documents (72,1%). L’analyse (44,1%) et la relecture de contrats (40,1%) figurent également dans le top 10 des tâches pour lesquelles les avocat·e·s opteraient pour une optimisation par l’IA[2].
L’avocat·e se trouve ainsi à la croisée des chemins : respecter les règles professionnelles et déontologiques tout en optimisant son efficience par l’utilisation d’outils d’IA. Dans ce contexte, il apparaît pertinent d’examiner de manière nuancée les principales opportunités que l’IA offre dans le cadre de la rédaction contractuelle, tout en gardant à l’esprit les risques spécifiques que son usage soulève.
Les opportunités de l’IA
Gain d’efficacité. Les outils d’IA permettent aux avocat·e·s de générer rapidement des projets de contrats, d’intégrer automatiquement des clauses standardisées ou d’adapter une structure contractuelle à un système juridique spécifique. Cette optimisation libère les praticien·ne·s des aspects les plus rébarbatifs pour qu’ils/elles puissent se concentrer sur les dimensions stratégiques : négociations, personnalisation et anticipation des zones de friction potentielles.
Qualité rédactionnelle optimisée. L’IA contribue à la cohérence terminologique et prévient les contradictions internes ou avec d’autres documents contractuels connexes. Cette harmonisation constitue un facteur déterminant de clarté juridique et, par extension, de sécurité pour les parties contractantes. Cette amélioration qualitative s’inscrit, à notre sens, dans le devoir de diligence prescrit à l’art. 12 let. a de la Loi fédérale sur la libre circulation des avocats (LLCA) et à l’art. 6 du Code suisse de déontologie (CSD), qui exigent que les avocat.e.s exercent leur profession avec soin et diligence. Il peut ainsi être attendu que l’avocat·e intègre dans sa pratique les outils technologiques permettant l’automatisation de contrats si cela a pour effet de réduire les honoraires facturés à ses client·e·s [3].
Anticipation proactive des risques. En analysant d’importants volumes de données juridiques et de cas similaires, les systèmes d’IA peuvent repérer des clauses potentiellement problématiques ou des formulations équivoques. Cette détection précoce permet d’anticiper les litiges éventuels et de renforcer la robustesse des accords. L’IA peut être particulièrement efficace face à la fatigue ou à la surcharge de travail et représenter ainsi un allier efficace dans la prévention d’erreurs.
Personnalisation contextuelle. Certains outils proposent des variantes contractuelles adaptées à des secteurs d’activité spécifiques, à des juridictions déterminées, voire à des profils clients distincts. Dans ce cadre, il suffit à l’avocat·e de correctement et précisément contextualiser sa requête à l’outil d’IA afin d’obtenir de lui les adaptations requises. À titre d’exemple, un modèle de contrat de licence logicielle généré pour un client actif dans la fintech à Genève pourra intégrer par défaut des clauses spécifiques aux exigences de la FINMA, tandis qu’un contrat similaire destiné à une start-up en biotechnologie basée à Bâle mettra davantage l’accent sur la protection de la propriété intellectuelle.
Support argumentaire enrichi. Tant dans la phase préparatoire qu’au cours des négociations, l’IA peut s’avérer un allié stratégique pour l’avocat·e. En amont, elle permet d’identifier les objectifs prioritaires de la négociation, de structurer des scénarios alternatifs et d’anticiper les arguments de la partie adverse, facilitant ainsi l’élaboration d’une stratégie claire. Lors des discussions elles-mêmes, l’IA peut instantanément fournir des suggestions ou des synthèses structurées pour étayer une position ou enrichir une clause, notamment lorsqu’une partie soulève des arguments techniques dans des domaines où l’avocat·e ne dispose pas toujours d’une expertise approfondie. Par exemple, au cours d’une négociation de contrat de partenariat, une partie évoque un mécanisme d’ajustement de prix fondé sur une formule mathématique complexe ; une brève pause peut alors permettre à l’avocat·e de consulter un outil d’IA pour vérifier le calcul et proposer immédiatement une reformulation en adéquation avec les intérêts de son/sa client·e – un soutien appréciable étant donné que les juristes ne sont pas toujours réputé·e·s pour leur affinité avec les mathématiques.
Les risques de l’IA
Dépendance. Les systèmes d’IA ne sont ni omniscients ni infaillibles et les résultats qu’ils produisent peuvent être inexacts ou incomplets. Une supervision humaine demeure indispensable. Une dépendance trop prononcée risque d’engendrer une atrophie de certains réflexes professionnels ou une stagnation des connaissances juridiques, la réflexion critique étant progressivement déléguée à la machine. Il est donc crucial d’examiner de manière critique les réponses obtenues, en les corrigeant ou en les complétant si nécessaire. Dans le contexte de la rédaction contractuelle, cette vigilance s’impose pour éviter de reproduire mécaniquement des modèles inadaptés aux besoins spécifiques des parties.
Biais et hallucinations. Les systèmes d’IA peuvent reproduire, voire amplifier, les biais présents dans leurs données d’entraînement. Plus préoccupant encore, ces outils peuvent parfois générer des informations totalement fictives – phénomène qualifié d’hallucinations. Ces erreurs peuvent provenir notamment de fausses informations en raison d’une base de données insuffisante. Elles surviennent également lorsqu’un modèle d’IA ajuste ses réponses pour qu’elles correspondent au point de vue de l’utilisateur. Ces dérives peuvent aboutir à l’élaboration de documents erronés ou trompeurs en l’absence d’un contrôle rigoureux.
Confidentialité et protection des données. Pour la profession d’avocat, cette problématique constitue un aspect critique au regard du secret professionnel (art. 13 LLCA et art. 4 CSD). Lors du choix et de l’utilisation de tout logiciel, y compris les applications d’IA, il convient de clarifier au préalable ce qu’il advient des données saisies, notamment en identifiant qui y a accès, où elles sont stockées et selon quelles modalités de traitement.
Les lignes directrices de la FSA portant sur l’utilisation de l’IA identifient trois options à la disposition des avocat·e·s pour encadrer l’usage de ces outils dans le respect des exigences légales et déontologiques :
- Solution interne. L’application d’IA est installée et exploitée localement sur le réseau de l’étude, garantissant que les données traitées ne quittent jamais son infrastructure, que ce soit pour leur stockage ou leur traitement. Cette solution, la plus opportune, requière des connaissances techniques pointues pour sa mise en place pouvant nécessiter l’intervention onéreuse d’une société spécialisée.
- Externalisation conforme. Lorsque le logiciel est fourni par un prestataire externe ou repose sur une infrastructure dématérialisée (cloud) sur un serveur tiers, il convient de respecter strictement les recommandations relatives à l’externalisation informatique, notamment celles édictées par la FSA concernant l’usage de services cloud dans les études d’avocats [4]. Cette obligation est d’autant plus renforcée que le Tribunal fédéral a reconnu qu’un·e prestataire externe peut être qualifié·e d’auxiliaire au sens de l’art. 13 al. 2 LLCA, engageant ainsi la responsabilité de l’avocat·e quant au respect du secret professionnel par cette tierce personne [5].
- Consentement éclairé. Il est également envisageable de recueillir le consentement exprès et éclairé du/de la client·e, en établissant une déclaration formelle de renonciation partielle au secret professionnel et à la LPD, à condition que la personne concernée ait été dûment informée des risques encourus.
En l’absence de ces garanties, les informations confidentielles ne devraient en aucun cas être introduites dans des systèmes d’IA. Dans le contexte particulier de la rédaction de contrats qui implique fréquemment de telles informations, une utilisation imprudente de ces outils peut exposer l’avocat·e notamment à des conséquences disciplinaires.
Complexité et coûts d’implémentation. A défaut de mesures garantissant la protection des données, l’avocat·e devra anonymiser les documents avant leur traitement par l’IA, représentant un investissement en temps potentiellement contre-productif. En outre et au-delà des considérations tarifaires, l’intégration effective de l’IA dans une étude nécessite des formations spécifiques, des adaptations techniques et l’élaboration de politiques internes. Or, dans un environnement où la célérité est souvent attendue, ces contraintes techniques peuvent ralentir les processus plutôt que les accélérer.
Responsabilité. Lorsqu’un·e avocat·e recourt à un outil d’IA pour assister la rédaction ou la négociation d’un contrat, et que cette utilisation aboutit à la conclusion d’un accord contenant une clause maladroitement formulée – causant par la suite un préjudice à une partie – la question de la responsabilité se pose. En pareil cas, l’avocat·e demeure responsable de la bonne exécution de son mandat et ne saurait s’exonérer en invoquant une erreur commise par le système d’IA. Cette position concorde avec le devoir de diligence (art. 12 let. a LLCA et art. 6 CSD) pouvant impliquer une compétence technologique étendue [6]. La négociation et la rédaction d’un contrat reste donc un acte engageant pleinement la responsabilité professionnelle de l’avocat·e, quel que soit le degré d’assistance technologique mobilisé. En résumé, l’utilisation d’outils d’IA ouvre de nouvelles situations dans lesquelles la responsabilité de l’avocat·e peut être engagée, sans que cela ne modifie les principes existants [7]. Il est d’ailleurs naturel que celui ou celle qui bénéficie d’un gain d’efficience en déléguant certaines tâches à une IA assume également le risque associé à cette délégation.
[1] Lignes directrices de la FSA portant sur l’utilisation de l’intelligence artificielle (IA), https://digital.sav-fsa.ch/fr/ki-guidelines (consulté le 3 juillet 2025).
[2] LLI Whitepaper, First Global Report on the State of Artificial Intelligence in Legal Practice, n° 3 2023, p. 22-23.
[3] Chappuis Benoît/Gurtner Jérôme, La profession d’avocat, Genève/Zurich/Bâle 2021, N 177.
[4] Voir : Fédération Suisse des Avocats, Utilisation du cloud dans les études d’avocats, disponible sur : https://digital.sav-fsa.ch/fr/transition-numerique-de-l-etude-utilisation-du-cloud (consulté le 26 mars 2025).
[5] ATF 145 II 229, c. 7 ; voir également Nussbaumer-Laghzaoui Arnaud, L’utilisation d’un espace de co-working par un avocat, in : https://lawinside.ch/777.
[6] Chappuis Benoît/Gurtner Jérôme, La profession d’avocat, Genève/Zurich/Bâle 2021, N 177.
[7] Gurtner Jérôme, Les nouvelles technologies et la responsabilité des avocats : La cybersécurité et l’intelligence artificielle, in : Chappuis Christine/Winiger Bénédict (édit.), Responsabilité civile et nouvelles technologies, Journée de la responsabilité civile 2018, Genève/Zurich/Bâle 2019, p. 72.
Proposition de citation : Greinig Scott, L’intelligence artificielle dans la pratique contractuelle des avocat·e·s suisses, Blog du LexTech Institute, 9 juillet 2025.
L’article L’intelligence artificielle dans la pratique contractuelle des avocat·e·s suisses est apparu en premier sur LexTech Institute.