Introduction.
L’être humain, malgré ses grandes réalisations scientifiques et ses capacités intellectuelles remarquables, est souvent limité par sa capacité à traiter et analyser de grandes quantités d’informations rapidement et avec précision. Cette limitation se manifeste particulièrement dans des domaines où la moindre erreur peut être fatale ou encore dans des domaines nécessitant des calculs complexes, une analyse de données volumineuse voire une surveillance continue. C’est pour pallier ces insuffisances que l’intelligence artificielle a été développée.
L’avènement de l’intelligence artificielle pose certains avantages majeurs dans le monde, tels que l’automatisation des tâches répétitives, ce qui augmente l’efficacité et réduit les erreurs humaines. Les systèmes d’intelligence artificielle peuvent analyser de grandes quantités de données avec une grande précision, ce qui est particulièrement utile dans des domaines tels que la médecine et la finance, elle peut être utilisée pour personnaliser des services et des produits, comme dans les recommandations de contenu en ligne ou les assistants virtuels, elle ouvre de nouvelles possibilités pour l’innovation technologique, comme les voitures autonomes, les diagnostics médicaux avancés, et bien plus.
En effet, nul ne parfait dans ce monde, c’est ainsi qu’il est possible que les systèmes d’intelligence artificielle soient impliqués dans des incidents qui causent des dommages aux humains. Il s’agit à l’occurrence de la fraude et usurpation d’identité ; de l’atteinte à la vie privée ; de la cybercriminalité ; discrimination et des accidents. Toutes ces imperfections posent des grands défis juridiques, notamment en matière de droit pénal, ainsi, ce domaine sanctionnateur du droit se trouve dans une difficulté majeure, telle que dans la qualification de certains actes infractionnels commis par l’intelligence artificielle, dans l’administration de la preuve ainsi que dans l’établissement de la responsabilité pénale.
En République Démocratique du Congo, où le cadre juridique n’a pas encore explicitement intégré les spécificités des technologies avancées, les actes autonomes d’une intelligence artificielle soulèvent des questions cruciales quant à la qualification des infractions et à l’établissement de la responsabilité pénale. L’intelligence artificielle peut prendre des décisions ou effectuer des actions qui échappent au contrôle direct de ses concepteurs ou utilisateurs. Dans certains cas, ces actes peuvent constituer des infractions (fraude, atteinte à la vie privée, actes de cybercriminalité). Cependant, en droit pénal congolais, l’infraction repose sur deux éléments fondamentaux : l’élément matériel qui consiste à ce qu’un acte ou une omission doit constituer une infraction prévue par la loi. De l’autre côté il y a l’élément moral qui consiste à ce que l’agent ait connaissance de son acte infractionnel et de ses conséquences, il s’agit donc de l’intention (dol) ou la négligence (culpa) de l’agent qui doit être prouvée.
Dans le cas d’une intelligence artificielle agissant de manière autonome, l’élément moral pose problème étant donné qu’une machine n’a ni volonté ni conscience pour agir avec intention ou négligence. Cela complique la qualification pénale des actes d’une intelligence artificielle en droit congolais, où le droit pénal repose sur la responsabilité individuelle ou collective des personnes physiques et morales. La responsabilité pénale traditionnelle est fondée sur la culpabilité d’une personne identifiable, or l’intelligence artificielle, en tant qu’entité non humaine, ne peut être considérée comme une personne juridique identifiable en droit congolais. Les concepteurs, propriétaires ou utilisateurs de l’intelligence artificielle peuvent être poursuivis si leur implication directe ou leur négligence est prouvée, mais cela n’est pas toujours possible, dans des cas où celle-ci agit de manière imprévisible ou en dehors des intentions initiales de ses créateurs, il devient difficile de déterminer qui est responsable.
La République Démocratique du Congo vient de sortir d’un long débat qui tournait au tour de la responsabilité pénale de personne morale, ce débat a été clos avec la mise en place d’un régime spécifique, cependant, le droit pénal congolais, basé en grande partie sur des textes classiques comme le Code pénal, autrement dit le décret du 30 janvier 1940 portant Code pénal congolais, n’a pas prévu ou n’a pas encore prévu un régime de responsabilité adapté aux nouvelles technologies avancées, comme la reconnaissance de la responsabilité indirecte ou partielle pour des systèmes autonomes, encore moins des mécanismes de régulation des intelligences artificielles, ainsi, l’absence de lois spécifiques ou de normes techniques encadrant les systèmes d’intelligence artificielle laisse un vide juridique quant à l’objet de notre étude.
En matière civile, le débat sur la responsabilité civile des engins agissant grâce à l’intelligence artificielle est clos, leur responsabilité civile s’établit à partir de trois théories différentes mises en place par la doctrine la plus répandue, il sied de préciser que ces trois théories appliquent le principe de la responsabilité sans faute pratiqué à l’époque traditionnelle, ainsi, l’on détermine la responsabilité civile d’un engin qu’à partir de l’existence d’un risque ou d’un dommage qu’il a causé.
Dans la perspective de cette étude, l’on retient que le Code du numérique de la République Démocratique du Congo, promulgué en mars 2023, vise à encadrer les activités numériques et à protéger les droits des utilisateurs dans l’espace numérique. Toutefois, en ce qui concerne les actes infractionnels commis par des systèmes d’intelligence artificielle, ce code ne contient pas de dispositions spécifiques traitant de la responsabilité pénale liée à l’intelligence artificielle. En l’absence de telles dispositions, les principes généraux du droit pénal congolais devraient s’appliquer. Cela signifie que la responsabilité pénale devrait généralement être attribuée aux personnes physiques ou morales (entreprise, concepteur, utilisateur et programmeur) qui conçoivent, possèdent ou utilisent les systèmes d’intelligence artificielle, surtout si une négligence ou une intention coupable peut être démontrée de leur part. Force est de constater que la nouvelle loi numérique, a amené les infractions dites du numérique, elles sont celles liées au numérique et qui se perpètrent essentiellement sur ou par le biais des outils informatiques. L’ordonnance-loi n°23/010 du 13 mars 2023 portant Code du numérique a prévu de nombreuses infractions qu’elle considère y afférentes à savoir : l’initiation ou le relaie d’une fausse information [1], l’usurpation d’identité [2], le harcèlement par le biais d’un système électronique [3], l’infraction à charge du fournisseur d’accès internet [4].
Il en résulte que, les articles 332 à 382 de cette ordonnance-loi organisent les différentes incriminations ayant trait au numérique et même celles portées par la loi sur la télécommunication. C’est pourquoi, il est important de noter que le Code du numérique a introduit la responsabilité pénale des personnes morales pour certaines infractions spécifiques liées au numérique. Cependant, cette responsabilité concerne principalement les violations des réglementations numériques par les entités elles-mêmes, et non les actes autonomes commis par des systèmes d’intelligence artificielle. Bien que le Code du numérique congolais représente une avancée significative dans la réglementation des activités numériques, il ne prévoit pas encore de mesures spécifiques concernant les actes infractionnels commis par des intelligences artificielles. Cela souligne la nécessité d’une évolution législative pour aborder ces questions complexes et émergentes.
L’importance d’établir la responsabilité pénale d’une intelligence artificielle autonome.
Le droit pénal est une expression familière. Il est en effet utilisé par toute société quelconque pour lutter, par la garantie de la sanction pénale, contre le phénomène criminel entendu comme l’ensemble des comportements délinquants ou déviants qui troublent l’ordre public et qui sont incriminés par la loi pénale ou susceptibles de l’être. Par ailleurs, l’avènement de l’intelligence artificielle fait obstacle à la garantie de la sanction pénale. En effet, le droit pénal repose sur la notion de l’infraction, de la détermination des éléments constitutifs de celle-ci et traditionnellement celle de la responsabilité individuelle ainsi que de la sanction. La commission d’une infraction par une intelligence artificielle remet en cause certaines notions du droit pénale, dans la mesure où il n’est pas aisé voire impossible de ressortir l’élément moral d’une intelligence artificielle, étant donné que celle-ci n’existe pas, la difficulté réside également dans l’établissement de la responsabilité pénale tout en produisant des preuves l’incriminant, cela dit, l’intelligence artificielle fonctionne sur la base de données massives et d’algorithmes complexes, par conséquent déterminer l’intention criminelle avec preuve à l’appui ou identifier la chaîne de responsabilité est un véritable casse-tête juridique. Pour couronner le tout, il faut rajouter que l’intelligence artificielle est dépourvue de la personnalité juridique, et ne peut donc pas être poursuivie en tant qu’auteur d’une infraction. Or, certaines intelligences artificielles avancées peuvent fonctionner de manière autonome, sans intervention humaine immédiate, rendant difficile l’attribution d’une faute à un individu précis. En République Démocratique du Congo, le cadre juridique n’est pas encore adapté pour appréhender pleinement les infractions commises par ou avec l’aide d’une intelligence artificielle, en effet, le Code pénal congolais et le Code numérique qui vient de voir le jour, ne prévoient pas encore de dispositions spécifiques sur la responsabilité pénale liée aux actes autonomes commis par des intelligences artificielles. Nonobstant, cela, le droit pénal congolais ne peut pas demeurer dans un état d’inertie face aux intelligences artificielles, le Code numérique organise déjà les actes infractionnels qui peuvent être commis dans le cyberespace, mais ce dernier n’a pas prévu la responsabilité des intelligences artificielles car ces dernières œuvrent dans le cyberespace en commettant des infractions qui rentrent dans la cybercriminalité. Toutes ces difficultés démontrées ne doivent pas limiter le droit pénal, il doit faire face à ces dernières car le droit pénal revêt d’une grande importance dans une société moderne, il traduit le pouvoir de contrainte d’un Etat dans son territoire, c’est une armée redoutable contre la criminalité, mais aussi une vengeance légale pour les victimes et un ange gardien pour les citoyens honnêtes. Vu l’importance que le droit pénal représente, il serait écœurant de le voir se faire piétiner par une technologie issue d’une imagination humaine, de ce fait, il faut émettre des pistes de solutions qui permettront au droit pénal congolais d’agir pleinement contre les actes infractionnels qu’une intelligence artificielle peut commettre.
Vers une responsabilité pénale dérivée ?
Il est admis en droit pénal qu’une responsabilité peut découler du fait d’une entité ou qu’une personne soit tenue pour responsable des actes fautifs commis par une autre telle qu’une personne morale ou une personne physique agissant sous un commandement, même si la personne responsable n’a pas directement commis l’infraction. Cette responsabilité repose sur un lien juridique ou un devoir. Le droit pénal repose sur la notion de la responsabilité pénale, qui suppose l’existence d’un sujet de droit doté de la capacité juridique et de la personnalité juridique, il sied de rajouter l’existence d’un discernement également, cependant, l’absence de ces éléments font à ce que l’intelligence artificielle ne soit pas considérée comme un sujet de droit, par conséquent les actes commis par cette dernière ne sont pas susceptibles de poursuite pénale ? L’intelligence artificielle relève d’une fiction, de ce fait, elle ne peut pas être soumise aux sanctions pénales, mais les actes commis par celle-ci ne peuvent demeurer impunis, cela priverait le droit pénal de sa force sanctionnateur, d’où il faut recourir à des mesures exceptionnelles afin d’organiser la responsabilité des intelligences artificielles. En effet, Le développement et la popularisation des technologies de l’intelligence artificielle ont de nombreuses répercussions sur la justice pénale dans le monde actuel. L’un des principaux effets est l’émergence de nouveaux comportements criminels ainsi que de nouveaux intérêts dignes de protection par le système de justice pénale. Ainsi, l’intelligence artificielle peut être impliquée dans différentes infractions, il s’agit notamment des infractions contre les personnes telles que l’homicide involontaire ou coups et blessures involontaires ; des infractions qui portent atteinte à la vie privée et la discrimination. La portée de ces actes seront mis à la charge d’une catégorie de personnes bien déterminées, mais cela ne serait pas enfreindre l’un de grand principe du droit pénal, qui n’est rien d’autre que le principe de la responsabilité individuelle ? Dans le cadre de cette étude ce principe ne serait pas enfreint nonobstant que l’intelligence artificielle agit de manière autonome, c’est-à-dire sans l’intervention humaine, ce principe serait toujours d’application, mais il ne s’appliquerait pas sur l’intelligence artificielle car, tel que nous l’avions soulevé ci-haut, elle n’est qu’une fiction, mais cette fiction n’apparait pas par un coup de baguette magique, c’est une parfaite création d’un être humain, de ce fait, le mode de fonctionnement et la mission de cette dernière sont programmés par l’être humain lors de la création de celle-ci, par ailleurs, la création d’une intelligence artificielle requiert l’intervention d’une certaine main d’œuvre, il s’agit par ailleurs du concepteur et du programmeur, chacun ayant une fonction bien précise dans la conception et dans la programmation de l’intelligence artificielle, de ce fait, en cas, d’un acte criminel, il serait donc logique de chercher à établir la responsabilité de l’un des intervenants lors du processus de création. Il sied de rajouter que l’utilisateur de l’intelligence artificielle peut également être responsable si sa culpabilité est démontrée.
Il y a deux grands types d’intelligence artificielle, dont notamment, l’intelligence artificielle « logicielle » conçue pour exécuter des tâches nécessitant une certaine forme d’intelligence humaine, comme la reconnaissance de motifs et la prise de décision, elle requiert un langage humain pour interagir avec les utilisateurs, tel est le cas de chat bots et assistants virtuels (ChatGPT ; Siri ; Google assistant.) Cette intelligence artificielle n’agit pas de manière autonome car elle a besoin d’une action humaine pour produire le service exigé, dans le cas où l’infraction est commise par ce type d’intelligence artificielle, il serait facile d’établir la responsabilité pénale étant donné que cette dernière n’agit pas seule, elle a besoin d’un donneur d’ordre, et donc c’est dernier qui sera tenu responsable car il s’est servi d’un outil informatique pour commettre un acte infractionnel.
Le deuxième type d’intelligence artificielle est celle « incarnée » il s’agit d’une intelligence artificielle intégrée dans un système physique comme un robot, un véhicule autonome ou un appareil intelligent. Contrairement à une intelligence artificielle logicielle, celle incarnée ne fonctionne pas uniquement dans un environnement numérique, elle interagit directement avec le monde physique grâce à des capteurs, des caméras et des actionneurs. Elle combine l’intelligence logicielle et les capacités physiques pour effectuer des actes autonomes dans le monde réel. Grace à une vision par ordinateur, elle peut analyser l’environnement en reconnaissant les objets et détecter les obstacles, elle peut apprendre seule et améliorer ses performances avec l’expérience, l’exemple concret est les bras robotisés intelligents utilisés dans les usines comme tesla et amazone, ou encore l’aspirateur autonome Roomba, il y a également le véhicule autonome tel que tesla et waymo. Notre analyse sera plus axée sur les intelligences artificielles incarnées car celle-ci, contrairement à celles-ci logicielles, elles agissent avec autonomie, c’est-à-dire sans l’intervention humaine, de ce fait, en cas de commission d’une infraction qui sera tenu responsable ? sachant que la responsabilité pénale est individuelle. Cependant, il sied de préciser qu’une intelligence artificielle incarnée n’a pas de conscience, et donc elle n’a pas de pensée personnelle, ce qui veut dire qu’elle ne fait que reproduire une pensée ou reproduire ce que on lui a inculpé lors de sa création, en d’autres termes, elle exécute des algorithmes, elle n’a pas de volonté propre mais l’on peut dire qu’elle traduit la volonté de son créateur ou concepteur, elle ne choisit pas ses objectifs, mais ils lui sont fixés au moment de sa création, elle imite un comportement réel mais sans avoir une compréhension qui lui est propre concernant ce comportement, c’est-à-dire qu’elle agit juste parce qu’elle est conçue pour afficher tel ou tel comportement. De ce fait, la responsabilité pénale d’intelligence artificielle serait donc assumée par une autre personne physique que l’auteur de l’acte ? A travers cette question, nous comprenons qu’il est évident qu’une grande partie des changements du système de justice pénale sera causée par des technologies d’intelligence d’artificielle plus avancées, il est également évident que l’intelligence artificielle actuelle pose suffisamment de défis et de menaces pour être au centre de la présente analyse.
Faut-il rappeler qu’en droit pénal, seuls les êtres humains sont soumis à la justice, et non les animaux ou les entités artificielles issues de l’imagination humaine. En effet, la responsabilité pénale repose sur la capacité de discernement et la liberté de choix. Ainsi, le droit pénal congolais reconnaît l’irresponsabilité irréfragable des mineurs de moins de 14 ans, car ces derniers n’ont pas encore de capacité juridique ni de discernement. Alors, qu’en est-il des machines, dépourvues de conscience propre ou d’existence autonome ?
L’intelligence artificielle, étant une invention humaine conçue pour accomplir des tâches rapidement et efficacement, est considérée comme un outil. Dès lors, l’utilisateur de cet outil ou celui en charge de sa surveillance devrait être tenu responsable des actes infractionnels qu’elle pourrait commettre. De plus, on pourrait envisager une responsabilité pénale du programmeur, concepteur ou créateur de l’intelligence artificielle si une intention criminelle ou une erreur dans le processus de création est démontrée. Lorsqu’il s’agit de constituer une infraction, l’élément moral peut être attribué à l’un des intervenants dans le processus de création de l’intelligence artificielle, à son utilisateur ou à la personne en charge de sa surveillance. L’intention malveillante, la négligence ou l’imprudence constituent alors l’élément moral nécessaire à l’établissement de la responsabilité pénale. Ainsi, l’imputabilité incombe à une personne physique ayant un lien direct avec l’intelligence artificielle. Elle suppose que cette personne dispose d’un discernement suffisant pour comprendre la portée des actes accomplis par l’intelligence artificielle, que ce soit par imprudence ou négligence. Enfin, la culpabilité permettrait d’évaluer l’intention ou la négligence de cette personne dans le cadre de la responsabilité pénale.
La sanction applicable dans le cadre d’une infraction commise par une intelligence artificielle autonome doit être mesurée selon la gravité de l’acte infractionnel et de l’intention de celui à qui l’acte profite, ainsi, la personne physique peut être soumise au paiement d’une amende comme peine, si l’acte ne cause aucun dommage physique, dans le cas contraire, cette dernière doit faire l’objet d’un emprisonnement. L’outil ayant servi dans la commission de l’infraction peut soit faire l’objet d’une confiscation spéciale, soit d’une mise en état de dysfonctionnement temporaire ou définitif si l’infraction est grave.
Conclusion.
Le droit est une discipline évolutive qui doit s’adapter aux nouveaux phénomènes ayant un impact considérable sur son application. Le droit pénal, comme toute autre branche du droit, doit également évoluer pour suivre les progrès technologiques et répondre aux défis posés par ces évolutions dans la société. Aujourd’hui, les avancées technologiques influencent profondément les modes de vie, les mentalités et les structures sociales, parfois à un point où l’humanité subit cette évolution sans toujours la maîtriser. Bien que la technologie soit le fruit de l’ingéniosité humaine, elle n’est pas exempte d’imperfections pouvant entraîner des conséquences négatives dans la société. Parfois, ces outils technologiques sont même conçus à des fins malveillantes, rendant nécessaire l’encadrement juridique de ce domaine par des règles claires. L’intelligence artificielle, en particulier, représente une avancée significative pour la société, mais son utilisation n’est pas toujours bienveillante. De plus, elle peut causer des accidents préjudiciables à l’humanité. Face à ces situations, le droit pénal se montre insuffisant s’il ne démontre pas sa force à travers des sanctions adaptées. Pour réprimer efficacement, il est indispensable que le droit pénal encadre et prévoie les actes à caractère infractionnel pouvant être liés à l’intelligence artificielle, conformément au principe des délits et des peines.
Le droit pénal doit établir une responsabilité pénale pour toute personne responsable d’actes troublant l’ordre social. Cependant, en raison des spécificités de l’intelligence artificielle, il est impossible de lui appliquer une sanction ordinaire ou d’engager directement sa responsabilité pénale. L’intelligence artificielle, dépourvue de volonté propre, agit uniquement en exécutant les commandes de son créateur ou utilisateur. Ainsi, de la même manière qu’une autorité engage sa responsabilité pour un ordre illégal exécuté par un subalterne, le créateur ou l’utilisateur d’une intelligence artificielle doit être tenu responsable des actes infractionnels qu’elle commet.