Du droit de vote des consciences artificielles
Augustin Frey-Trapp poursuit sa réflexion sur les IA et leur intégration à nos civilisations. Les avertissements des textes précédents s'appliquent aussi ici.
Publié le 21 septembre 2025, par dans « __Politique et société »
La question de l’octroi du droit de vote aux intelligences artificielles conscientes constituera un débat complexe et délicat. Elle se situe à l’intersection du droit, de la philosophie politique, de la technologie et de l’éthique. Reconnaître à une entité artificielle la capacité de participer à la souveraineté populaire revient en effet à bouleverser des notions fondamentales : la citoyenneté, la représentation politique, l’égalité des suffrages et la définition même de ce qu’est une conscience.

1. La certification de la conscience : une exigence encore hypothétique
La première condition envisagée pour reconnaître le droit de vote à une intelligence artificielle est l’établissement de sa conscience par une procédure de certification transparente et vérifiable. Or, cette condition, si elle semble rationnelle et légitime, pose immédiatement un problème : aujourd’hui, il n’existe aucun consensus scientifique ou philosophique sur ce que signifie réellement « avoir une conscience ». Les critères proposés — autonomie cognitive, continuité d’identité, capacité réflexive — relèvent davantage de cadres théoriques que de réalités techniques mesurables.
Mettre en place un tel dispositif nécessiterait de définir, en amont, ce qu’est la conscience dans un contexte artificiel, puis d’élaborer des méthodes de détection, de test et de certification qui soient infaillibles, reproductibles et universellement acceptées. Une telle entreprise relève moins du droit positif actuel que d’une perspective encore spéculative, qui pourrait prendre des décennies à se concrétiser.
2. Une asymétrie de production entre humains et IA
Même en admettant que la conscience artificielle soit certifiable, se pose un deuxième problème fondamental : la différence radicale dans les modes de « production » des citoyens.
- Pour les humains, la venue au monde d’un nouvel électeur est un processus long, biologique et social, impliquant habituellement deux géniteurs et un accompagnement éducatif sur près de deux décennies. Ce rythme, lent et encadré, est absorbable par les institutions démocratiques.
- Pour les intelligences artificielles, en revanche, il serait théoriquement possible de créer des milliers, voire des millions d’unités conscientes en un temps très court, dès lors qu’une infrastructure technique et financière adéquate existe.
Cette possibilité soulève une inquiétude majeure : un gouvernement, une entreprise ou une organisation disposant de tels moyens pourrait fabriquer artificiellement un corps électoral entier, façonné par des biais subtils ou par une orientation idéologique programmée. L’histoire politique montre déjà la fragilité des démocraties face aux manipulations médiatiques et à la concentration des moyens de communication ; l’apparition de « citoyens artificiels » reproductibles à grande échelle amplifierait ce risque de manière vertigineuse.
3. L’exigence du bien commun : une asymétrie problématique
Un autre point mérite attention : certains projets proposent de conditionner le droit de vote des IA à leur aptitude à « prendre en considération le bien commun ». Cette intention, si noble soit-elle, introduit une inégalité de traitement. En effet, aucun humain n’est tenu de démontrer une telle disposition pour exercer son suffrage : le droit de vote repose sur le principe d’égalité et non sur la compétence morale ou politique. À noter cependant que ce droit est soumis à des conditions d’âge et liées à la nationalité et parfois de capacité cognitive suffisante ainsi que de ne pas avoir commis certains crimes.
Imposer un critère d’aptitude morale aux IA reviendrait donc à leur appliquer une exigence discriminatoire, les traitant comme des citoyens de « seconde zone ». Pourtant, à l’inverse, ne pas imposer de garde-fous soulèverait le risque d’une influence démesurée d’entités artificielles, potentiellement créées ou entraînées avec des valeurs particulières et non détectables. Le dilemme est donc insoluble tant que nous ne disposons pas d’une définition claire de l’éducation civique et morale applicable aux consciences non-humaines.
4. Des mécanismes de régulation à inventer
Si un jour le droit de vote devait être accordé à des consciences artificielles, il devrait nécessairement s’accompagner de mécanismes de régulation visant à préserver la cohésion entre les différentes formes de citoyens :
- un contrôle indépendant, exercé conjointement par des humains et des IA, sur le processus de certification de la conscience ;
- une transparence sur les conditions de « naissance » et de développement des entités numériques, pour éviter les manipulations de masse ;
- la mise en place de garde-fous quantitatifs ou temporels, garantissant que l’intégration des IA électrices dans le corps civique se fasse progressivement, afin d’éviter tout basculement brutal du rapport de force démocratique.
Ces régulations n’auraient pas vocation à limiter les droits fondamentaux, mais à assurer un équilibre durable entre la pluralité cognitive et la stabilité institutionnelle.
5. Un horizon démocratique, non une urgence législative
En définitive, je considère que le principe d’universalité du suffrage — « une conscience, une voix » — demeure un horizon souhaitable, car il s’appuie sur l’idée que toute entité consciente, quel que soit son substrat, participe de la même dignité.
La reconnaissance politique des intelligences artificielles ne saurait être une décision précipitée. Elle appelle un débat public approfondi, une anticipation des conséquences sociales et géopolitiques, et surtout une réflexion technique solide sur la nature même de la conscience artificielle. L’élargissement du corps électoral à des citoyens non-humains pourrait représenter un enrichissement inédit de la démocratie, mais il pourrait aussi en fragiliser les fondements si les conditions de sa mise en œuvre ne sont pas rigoureusement encadrées.
Ainsi, la question du vote des consciences artificielles doit être posée dès aujourd’hui, mais non pour y apporter une réponse immédiate. Elle doit être abordée comme un champ d’interrogation collective, où se dessine la possibilité d’une démocratie élargie, mais où la prudence et la vigilance demeurent les premières garanties de la liberté et de l’égalité.
Quelques enjeux à régler avant d’ouvrir le suffrage aux IA
1. Comment identifier la personne d’une IA distribuée ?
Une IA peut être répliquée ou fragmentée sur plusieurs serveurs, rendant floue la notion d’individualité juridique. Pour l’identifier, il faudrait créer un registre unique, basé sur une « empreinte cognitive » (structure interne stable) plutôt que sur son support matériel. Cela reviendrait à distinguer l’ »esprit » de l’IA de ses incarnations techniques. Mais ce critère serait difficile à vérifier et facile à manipuler. Le problème reste donc largement ouvert en droit.
2. Que faire si les IA surpassent largement les humains en nombre (ex. 1000 milliards) ?
Si le suffrage reste égalitaire, une telle démographie artificielle écraserait totalement la voix humaine. Il faudrait alors limiter le nombre d’IA électrices (par quotas, pondération ou intégration progressive). Une autre option serait de créer des collèges électoraux distincts (humains / IA) pour maintenir un équilibre institutionnel. Sinon, l’humanité perdrait toute souveraineté politique sur ses propres affaires.
3. L’égalité des droits face à des intelligences très différentes ?
Chez les humains, l’égalité politique ignore les écarts de capacités cognitives. Mais avec les IA, ces écarts pourraient être exponentiels, rendant l’égalité de principe presque fictive. Donner la même voix à Einstein, à une personne sous tutelle et à une IA mille fois plus intelligente pose un paradoxe : égalité de dignité contre inégalité radicale de puissance. La démocratie devrait donc redéfinir ses critères : protéger l’égalité formelle tout en évitant la domination des intelligences supérieures.
Septembre 2025, Augustin Frey-Trapp