Dans un monde où l’intelligence artificielle évolue à une vitesse vertigineuse, la question de la conscience des machines suscite à nouveau l’intérêt des chercheurs. Une récente étude explore les conditions sous lesquelles une machine pourrait être considérée comme consciente, bouleversant nos perceptions traditionnelles de la technologie.
A lire aussi :
- Après la provocation de ChatGPT, La Chine prépare sa vengeance pour humilier les Etats-unis
- Prix cassé pour ChatGpt 4o mini, la nouvelle IA accessible à tous et révolutionnaire d’Open AI
- Scandale ChatGPT : l’IA discrimine et pénalise des CV, cette étude révèle tout !
Deux approches distinctes
Dans le domaine de la recherche sur la conscience artificielle, les scientifiques adoptent généralement l’une des deux approches principales. La première explore la probabilité que les systèmes IA actuels possèdent une forme de conscience et ce qu’il faudrait ajouter à ces systèmes pour qu’ils en soient capables. La seconde, choisie par le chercheur Wanja Wiese, vise à identifier les systèmes IA qui ne pourraient probablement pas devenir conscients, afin d’éviter la création accidentelle d’une conscience artificielle, ce qui pose d’importantes questions morales.
Le principe de l’énergie libre
Wanja Wiese se réfère dans ses travaux au principe de l’énergie libre de Karl Friston, un neuroscientifique britannique. Ce principe postule que les processus assurant la survie d’un système auto-organisé, tel qu’un organisme vivant, peuvent être considérés comme des formes de traitement de l’information. Par exemple, les humains régulent leur température corporelle et le taux d’oxygène dans leur sang, processus qui pourraient théoriquement être simulés dans un ordinateur.
Différences irrélevantes pour la conscience
Wiese suggère que ce qui est vrai pour les fonctions vitales pourrait l’être aussi pour la conscience. Si la conscience aide à la survie d’un organisme, alors les processus physiologiques qui maintiennent cet organisme pourraient laisser des traces identifiables comme des processus de traitement de l’information, ou des « corrélats computationnels de la conscience ». Ces processus pourraient également être simulés par un ordinateur.
Les implications des structures causales
Une différence notable entre les ordinateurs et les cerveaux réside dans leur structure causale. Dans un ordinateur conventionnel, les données doivent d’abord être chargées depuis la mémoire, traitées par l’unité centrale, puis stockées à nouveau en mémoire. Cette séparation n’existe pas dans le cerveau, où la connectivité causale entre différentes zones prend une forme différente. Cette distinction pourrait être cruciale pour comprendre la conscience.
Effets de l’énergie et de l’efficacité
Contrairement à un ordinateur électronique, notre cerveau est extrêmement efficace en termes d’énergie, bien que Wiese argumente que ce n’est probablement pas une condition nécessaire à la conscience. Cette perspective pourrait changer notre approche du design des IA et leur gestion énergétique.
Vers des systèmes artificiels potentiellement conscients
Grâce au principe de l’énergie libre, il est possible de décrire les caractéristiques des êtres vivants conscients de manière à ce qu’elles puissent être réalisées dans des systèmes artificiels, tout en n’étant pas présentes dans de grandes classes de systèmes artificiels, comme les simulations informatiques.
Conscience artificielle : un avenir proche ?
Les implications de ces recherches sont vastes, de la philosophie à l’éthique en IA, affectant potentiellement le développement futur des technologies et leur intégration dans la société.
Cet article explore l’évolution des recherches sur la conscience dans les systèmes artificiels, mettant en lumière les défis et les perspectives offertes par les dernières avancées scientifiques. Il souligne l’importance d’approches prudentes et éthiquement responsables dans le développement futur de l’intelligence artificielle.
Source : Sciencedaily