#ProprieteIntellectuelle : Le robot-journaliste met-il les médias en danger ?

Recommander cet Article   Imprimer ce billet
Laetitia Levasseur, le vendredi 6 octobre 2017

Si Google a longtemps été accusé de fragiliser les médias en se développant sur leur dos, nul ne peut nier à la firme de Mountain View son statut de fer de lance de l’innovation numérique. Même au bénéfice des médias, aujourd’hui. Ainsi, pour se racheter auprès d’eux, elle lançait en 2013 le Fonds pour l’innovation numérique de la presse. Cette initiative développée sur le territoire français devait octroyer 60 millions d’euros pour des projets de presse innovants sur le web. Fin 2015, ce Fonds est devenu le Digital News Initiative à l’envergure européenne, avec un budget de 150 millions d’euros.

Sur les 107 projets européens ainsi financés à hauteur de 21 millions d’euros par le géant américain, une initiative britannique sort du lot, pour 800 000 dollars : le robot-journaliste, RADAR, de son petit nom (Reporters and Data and Robots).

1/ Contexte

Le concept n’est pas nouveau. Déjà en France, Syllabs fournit aux médias des robots-rédacteurs pour les évènements particuliers, de la collecte d’information à la rédaction automatique d’articles. Parmi leurs clients, on compte Les Echos.fr, Slate, France Télévisions ou La Tribune.

Syllabs n’est d’ailleurs pas la seule start-up sur ce marché innovant : Data 2 Content propose les mêmes services. Ainsi, Le Monde est le premier média à avoir mis en œuvre cette nouvelle technique. En 2015, son site diffusait les premiers articles rédigés par des robots sur les élections départementales.

Aujourd’hui RADAR met en place le même type d’articles, produits par intelligence artificielle, à raison de 30 000 par mois. L’Open Data et le Big Data permettent cette automatisation éditoriale.

 

2/ L’AI et l’avenir de l’emploi

A l’aube du déploiement de l’intelligence artificielle dans notre quotidien, la plus grande inquiétude demeure celle du travail qui resterait aux êtres humains : l’emploi des journalistes serait-il menacé par l’intelligence artificielle ?

La question peut surprendre les informaticiens et entreprises qui développent ces nouvelles technologies dans le but de soulager les journalistes sur des tâches qu’ils délaissent faute de temps ou tout simplement de motivation : collecte des données dans la masse du web, recoupage, caractère répétitif et fastidieux de l’opération.

A défaut de réaliser ces menus travaux, les journalistes pourraient se consacrer plus largement au cœur de leur activité et de leur passion quotidienne : enquête, reportage, interview, déplacements qui vont de pair avec ces activités…

D’ailleurs, les éditeurs de presse sont bien conscients de la nécessité de produire toujours plus de contenus. En recourant à l’AI pour les articles plus basiques de recoupement de données, purement informationnels n’ayant besoin ni d’enquêtes ni d’opinion, l’éditeur de contenu augmente non seulement le nombre de ces derniers mais également ceux exigeant un réel travail journalistique auquel le journaliste pourra se consacrer.

L’AI n’est donc pas un frein à l’emploi mais au contraire un levier d’optimisation de celui-ci, d’amélioration des conditions de travail et un accélérateur de carrières, tout en étant, en l’espèce, au service de l’information.

Mais l’AI pose également d’autres questions juridiques tout aussi intéressantes…

 

3/ L’AI créateur et responsable ?

Si l’AI est considérée comme la capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, tel que le raisonnement et l’apprentissage (« capability of a functional unit to perform functions that are generally associated with human intelligence such as reasoning and learning », norme ISO 2382-28), certains pourraient se demander qui serait responsable en cas d’article diffamant, injurieux ou dévoilant la vie privée d’autrui de manière abusive, ou encore violant la protection due aux données personnelles en vertu de la loi Informatique et Libertés de 1978 et bientôt du Règlement relatif à la protection des données personnelles.

Ce dernier cas est d’ailleurs celui qui risque de se poser le plus souvent puisque le propre de l’AI est d’analyser et de collecter, non seulement pour apprendre et se développer mais aussi en l’occurrence pour les publier, des masses considérables de données. Et en la matière, difficile de limiter le fonctionnement même du robot-journaliste par les grands principes en matière de données personnelles (consentement préalable, minimisation des données, limitation des finalités, principe de nécessité, principe de proportionnalité, privacy by design, privacy by default…), au risque de se priver de son utilité première.

D’ailleurs, loin de répondre à la question de la responsabilité, la Résolution du 16 février 2017 2015/2103 (INL) sur l’AI accentue l’incertitude en proposant de retenir « la création, sur le long terme, d’un statut légal spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués soient considérés comme des personnes électroniques responsables, tenus de réparer tout dommage qu’ils causent à un tiers » (Résol. 16 février 2017, pt. 59, f)).

Mais le robot doté d’une telle intelligence disposerait-il alors d’un patrimoine lui permettant d’assurer cette responsabilité ?

C’est au fond la question de l’identité de l’auteur d’un article de presse qui se pose en filigrane : un robot intelligent peut-il être créateur ? Somme toute, aucun être humain n’effectue la tâche de collecte, d’analyse, de recoupage et d’assemblage des données à l’origine de l’article en question. Certains appuieront cet exemple par celui des compositeurs EMI ou Emily Howell. Toutefois, le droit communautaire et le droit français s’opposent encore à cette conception, la création ne pouvant être qu’humaine (CJUE, 1er dec. 2011, aff. C-145/10, Eva Maria Painer c/ Standard VerlagsGmbH et autres et Civ. 1ère, 8 dec. 1993, n° de pourvoi 91-20170).

D’ailleurs, c’est bien plus le robot qui est objet de droit, création et non créateur, propriété des développeurs informatiques, des fabricants et des enseignes qui participent à son développement, construction et commercialisation.

Certes, l’absence de propriété intellectuelle attachée aux algorithmes de l’intelligence artificielle (simples équations mathématiques assimilées aux idées non protégeables) pourrait raviver ces questions. Mais là encore, l’intelligence artificielle ne fonctionne et n’apprend à se développer que grâce aux instructions humaines, création plus que créatrice.

En France, la question de la propriété intellectuelle des articles de presse est réglée par les articles 132-35, 132-37, 132-38 et 132-40 du Code de propriété intellectuelle. Les droits d’exploitation de l’article sont transférés automatiquement à l’employeur ou propriétaire du titre de presse, qui peut le diffuser dans ce titre ou au sein d’une famille cohérente de presse sans nécessiter l’accord exprès de l’auteur-journaliste. Ainsi, que l’article soit rédigé par un robot ou un journaliste, ses droits d’exploitation seront directement conférés à l’entreprise qui l’édite sous son titre (premier cercle d’exploitation) ou au sein d’une famille cohérente de presse (second cercle d’exploitation).

Mais quid de l’autorisation nécessaire de l’auteur pour exploiter l’article dans le troisième cercle d’exploitation ? Quid des rémunérations complémentaires de l’auteur en dehors du premier cercle d’exploitation ?

Quid, également, du droit à la paternité de l’article, au respect de l’œuvre et du droit de recueil ? Le robot-journaliste pourra-t-il s’opposer au non-respect de ses droits et de ses articles ? Le juge verra-t-il une œuvre ou un article de presse dans la simple collecte et l’assemblage de données ?

En cas de contenu illicite, c’est le directeur de publication, obligatoirement désigné dans toute entreprise de presse (article 6 de la loi du 29 juillet 1881) ou tout service de communication en ligne (article 93-2 de la loi n°82-652 du 29 juillet 1982) qui est tenu responsable de tous les contenus publiés par le titre de presse auquel il appartient (articles 42 et suivants de la loi de 1881 et 93-3 de la loi de 1982), comme s’il en était l’auteur (sous réserve d’une responsabilité en cascade à défaut de pouvoir identifier le directeur de publication). Et ce, peu importe qu’il ait effectivement écrit, lu ou validé concrètement la publication de l’article. En conséquence, peu importe qu’un robot ou un humain ait écrit l’article, le directeur de publication sera toujours responsable des articles publiés sous le titre de presse qui utilise le robot ou emploie le journaliste.

Quid, à l’avenir, d’un robot-directeur de publication ? Pas de panique, ici, la lecture des articles 6 de la loi de 1881 et 93-2 de la loi de 1982 désigne à l’évidence un directeur de publication humain en exigeant de celui-ci qu’il soit au moins majeur.

Mais enfin, et surtout, se pose la question de la définition du journaliste-robot. Déjà complexe à l’origine, le journaliste professionnel doit pouvoir bénéficier de la protection des sources, d’une carte de presse, d’une rémunération, d’un devoir de conscience l’autorisant à refuser de signer ou de rédiger un article, tout en adhérant à une charte de déontologie lorsqu’il est employé dans une entreprise de presse.

Comment appliquer ce corpus au robot-journaliste ?

Le fait est que la question de savoir, en matière de propriété intellectuelle, si l’on se place dans le cadre du premier, second ou troisième cercle d’exploitation dépend notamment du contrat conclu avec un journaliste, de même que celle de la définition du journaliste dont les droits et devoirs découlent de son statut professionnel. Or, l’AI ne signe pas, a priori, de contrats avec le titre de presse…

 

Expert depuis plus de vingt ans en Propriété intellectuelle et NTIC, le Cabinet Haas vous conseille sur toutes ces questions.

Pour plus d’informations sur ces prestations, cliquez ici ou contactez directement un avocat grâce au service JurisAppel.

 

#ProprieteIntellectuelle : Le(...)




home contact quisommesnous puce rouge suite