
Nul ne peut ignorer l’impact de l’intelligence artificielle sur nos vies, transformant profondément nos usages quotidiens, nos interactions sociales, et nos environnements professionnels. Force est de constater que l’essor de l’IA s’est accompagné de défis majeurs pour les droits et les libertés fondamentales.
I – DÉFINITION DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle est définie juridiquement comme un ensemble de technologies informatiques capables d’exécuter des tâches qui nécessitent normalement une intelligence humaine, comme le raisonnement, l’apprentissage, et la prise de décisions.
Les principes de l’OCDE sur l’IA encouragent une IA fiable, respectueuse des droits humains et de la vie privée.
Le Parlement européen définit l’intelligence artificielle comme tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».
Le Règlement européen sur l’intelligence artificielle du 13 juin 2024 – dénommé AI Act – constitue la législation européenne sur l’intelligence artificielle.
L’union européenne considère l’intelligence artificielle comme étant un système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut faire preuve d’adaptabilité après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels.
On peut distinguer différentes catégories d’intelligence artificielle :
- l’intelligence artificielle faible ou intelligence artificielle étroite : elle constitue 95% des IA existantes. Cette IA est spécialisée dans une tâche unique (ex. : reconnaissance faciale, assistants vocaux) et ne peut pas généraliser ses compétences à un autre domaine ;
- l’intelligence artificielle forte ou intelligence artificielle générale : elle constitue moins de 5% des Ia existantes. Cette IA est capable de s’adapter à diverses situations comme un humain. Elle est en mesure de comprendre, d’apprendre et d’effectuer différentes tâches ;
- l’intelligence artificielle autonome : cette IA prend des décisions sans intervention humaine (ex. : véhicules autonomes, systèmes de surveillance).
II – LA RESPONSABILITÉ PÉNALE DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle n’est ni une personne physique, ni une personne morale. Elle est dépourvue de la personnalité juridique et ne peut donc être poursuivie pénalement.
En effet, seuls les sujets de droit – c’est-à-dire les personnes dotées de la personnalité juridique – peuvent engager leur responsabilité pénale.
Faut-il en déduire qu’il existe une impunité totale en cas d’infractions pénales commises par le biais d’une IA ? Serait-il donc impossible de rechercher une quelconque responsabilité pénale en cas d’homicide involontaire commise par un véhicule autonome ?
La réponse à ces deux questions est nécessairement négative puisqu’il serait envisageable d’engager la responsabilité pénale du concepteur de l’IA, de l’utilisateur de l’IA ou de la société exploitant l’IA. qu’il est possible de rechercher la responsabilité pénale du concepteur, l’utilisateur et sur l’entreprise exploitante.
Le droit doit nécessairement s’adapter aux nouvelles technologies et à l’intelligence artificielle. Le droit pénal est en constante évolution sur ce sujet.
En 2018, une voiture autonome appartenant à la société UBER, et qui était en cours de test, a causé le décès une piétonne aux États-Unis. L’enquête a révélé que le logiciel n’avait pas correctement détecté l’obstacle Si la société UBER a été mise en cause, le bureau du procureur a estimé qu’il n’y avait pas lieu d’engager la responsabilité pénale de la société.
III – LE RISQUE PÉNAL LIÉ À L’INTELLIGENCE ARTIFICIELLE
L’IA peut être utilisée pour commettre des infractions pénales, notamment :
- les deepfakes : usurpation d’identité à des fins frauduleuses ;
- les cyberattaques autonomes : logiciels malveillants auto-apprenants ;
- les escroqueries ou les fraudes assistées par IA ;
- les discriminations algorithmiques.
Début 2025 à Shanghaï, un homme a été victime d’une escroquerie réalisée par le biais d’une IA. Il pensait en effet entretenir une relation en ligne avec une jeune femme car celle-ci lui avait envoyé différentes photos et vidéos. Pensant que cette jeune femme était dans le besoin, il lui avait transféré l’équivalent de 26.250 euros. Or, il s’est avéré qu’il s’agissait d’un groupe d’escrocs qui avait eu recours à l’IA pour générer lesdites photos et vidéos.
IV – L’INTELLIGENCE ARTIFICIELLE COMME OUTIL DE RÉSOLUTION DES INFRACTIONS PÉNALES
L’intelligence artificielle peut aussi être un atout majeur pour la justice pénale, en permettant notamment l’analyse des données criminelles, la reconnaissance faciale et la prédiction de la délinquance et de la criminalité.
L’analyse des données criminelles
L’un des principaux atouts de l’IA est sa capacité à traiter d’énormes quantités de données : les big data. En croisant des informations issues de différentes sources, les algorithmes permettent aux enquêteurs d’identifier des tendances et de localiser des foyers de criminalité.
Le logiciel PREDPOL, utilisé aux États-Unis, analyse les données historiques des crimes pour prévoir où et quand des délits pourraient se produire. Or, il a été constaté que l’algorithme de ce logiciel prédisait surtout des résultats déjà connus de la Police.
La reconnaissance faciale et l’identification des suspects
La reconnaissance faciale est l’un des outils les plus utilisés pour identifier des criminels ou des personnes disparues.
CLEARVIEW AI est une entreprise spécialisée dans la reconnaissance faciale, qui a collecté des milliards d’images à partir d’Internet pour créer un moteur de recherche permettant d’identifier des individus à partir d’une simple photo. Plusieurs forces de police dans le monde utilisent cet outil pour retrouver des suspects.
Le 3 septembre 2024, l’autorité de protections des données néerlandaise a condamné la société CLEARVIEW AI à une peine d’amende d’un montant de 3,5 millions d’euros en raison des violations du RGPD.
Force est donc de constater qu’il est indispensable que le recours à l’IA par la justice pénale soit strictement encadré afin d’éviter la violation des droits fondamentaux.
V – L’AVOCAT PÉNALISTE FACE À L’INTELLIGENCE ARTIFICIELLE
L’IA peut certainement être un allié précieux pour l’avocat pénaliste notamment dans l’analyse de la jurisprudence et de la doctrine ou pour l’automatisation de différentes tâches.
Nombreux sont les justiciables qui ont désormais recours à l’intelligence artificielle pour obtenir des réponses à leurs questions juridiques. Faut-il en conclure que l’IA peut remplacer un avocat pénaliste ?
La réponse est bien évidemment négative dans la mesure où l’expertise d’un avocat spécialiste en droit pénal ne repose pas uniquement sur ses connaissances juridiques et sur sa maîtrise du droit pénal.
L’avocat pénaliste fait preuve d’une humanité et d’une sensibilité lui permettant d’adapter sa défense à la personnalité de son client. L’IA est incapable de faire cela
L’expérience de l’avocat pénaliste lui permette de s’adapter à l’audience et de réagir à tout évènement pouvant survenir durant le procès pénal. La meilleure des IA en serait parfaitement incapable.
Si l’intelligence artificielle constitue une prouesse technique indéniable et un outil de qualité, elle ne saura jamais capable d’assurer efficacement la défense pénale de vos intérêts.
Si vous souhaitez obtenir des conseils pertinents en droit pénal ou si vous souhaitez bénéficier d’une défense pénale de qualité, contactez un avocat spécialiste en droit pénal.