Betty Jeulin, répond à trois questions pour Comundi. Elle interviendra lors de la prochaine Conférence Tendances Communication sur le thème : « IA générative : connaître le cadre juridique pour vos campagnes de com et créations »
Lorsqu’on s’appuie sur l’IA pour produire des supports de communication (pour les réseaux sociaux, éditoriaux, évènementiels, commerciaux ou autre..) et que cette dernière a généré une erreur ou un plagiat. Qui est responsable ?
Cette question est très fréquente ! Attention néanmoins à ne pas confondre erreur et plagiat.
En cas d’erreur, c’est-à-dire de fausse information générée par une IA, c’est le plus souvent la personne morale ou physique qui est à l’origine de cette production de contenu qui sera tenue pour responsable.
Récemment, ce fut le cas pour Air Canada, dont le Chabot avait faussement assuré à un usager qu’il pouvait bénéficier d’un tarif spécifique. Ce cas a été porté devant la justice et a fait jurisprudence quand le juge a condamné la compagnie aérienne à rembourser son client. Autrement dit, Air Canada a été jugé responsable des propos erronés de son intelligence artificielle.
En cas de plagiat, c’est-à-dire la contrefaçon d’un actif protégé par un système d’IA, la question est de savoir si l’entraînement des systèmes d’IA sur des données protégées constitue, ou non, un acte de contrefaçon. De nombreux procès sont en cours à ce sujet, notamment aux États-Unis.
En communication, si un contenu porte atteinte à des droits de propriété intellectuelle, l’entreprise responsable de la diffusion sera légalement responsable du plagiat. Les IA ne constituent pas des sujets de droit, elles ne peuvent dont pas être juridiquement coupables de quoi que ce soit.
Peut-on utiliser des IA génératives pour concevoir des supports de communication : images, textes, musiques… ?
Oui. Et c’est d’ailleurs déjà très largement le cas.
Cependant, quand une marque décide d’utiliser des contenus générés par IA pour ses supports de com’, elle doit tout de même tenir compte de certaines contraintes. Elle doit se renseigner sur les conditions d’utilisation des outils qu’elle utilise, notamment concernant la confidentialité des inputs et les outputs et les règles de diffusion des données qu’elle génère.
De plus, c’est à la marque de vérifier que le résultat final ne porte atteinte à aucun droit (données personnelles, droit à l’image ou à la voix, propriété intellectuelle…).
Faut-il le mentionner lorsqu’on diffuse un contenu généré par une IA ?
Hormis le cas des deepfakes (contenu hypertruqué qui imite la réalité et peut induire en erreur), il n’existe à ce jour en Union européenne aucune loi générale qui oblige à mentionner qu’un contenu a été généré par IA.
En revanche, il existe de nombreuses obligations sectorielles en communication.
L’Autorité de régulation professionnelle de la publicité (ARPP) prévoit que toute campagne doit être « loyale, véridique et non trompeuse ». Aussi, la sincérité de la publicité à l’ère des IA génératives est une donnée à prendre en compte. Si je ne devais formuler qu’une recommandation, ce serait de toujours privilégier la transparence dans vos communications. D’une part, cela crée un lien de confiance avec les destinataires, d’autre part, cela vous prémunit pour l’avenir.
Venez rencontrer Betty Jeulin, Avocate en droit du numérique et propriété intellectuelle au sein du Cabinet Jeulin AVOCATS, le mardi 25 novembre 2025 lors de la conférence Tendances Communication.



