Un nouveau rapport annuel de l’Université de Stanford révèle un gouffre grandissant entre ceux qui construisent l’intelligence artificielle et ceux qui vivent avec ses conséquences. Alors que les acteurs du secteur de l’IA restent largement optimistes quant à l’avenir de cette technologie, le grand public exprime une inquiétude croissante quant à son impact sur les moyens de subsistance, les soins de santé et l’économie.
Un choc des priorités
La déconnexion provient d’une différence fondamentale dans la signification du « risque » pour chaque groupe. Pour les leaders technologiques et les chercheurs, l’accent principal est souvent mis sur l’intelligence générale artificielle (AGI), le saut théorique vers une superintelligence capable de raisonner au niveau humain.
Cependant, pour le citoyen moyen, les préoccupations sont bien plus immédiates et matérielles :
– Sécurité de l’emploi : Peur du déplacement et de la stagnation des salaires.
– Coût de la vie : Anxiété face à l’augmentation des factures d’énergie provoquée par des centres de données massifs et gourmands en énergie.
– Stabilité sociétale : inquiétudes quant à la façon dont l’IA va remodeler les services essentiels comme les soins médicaux.
Cet écart est peut-être plus visible dans les données concernant l’avenir du travail. Alors que 73 % des experts pensent que l’IA aura un impact positif sur l’emploi, seuls 23 % du public partagent cet optimisme. De même, alors que 69 % des experts prévoient des avantages économiques, seuls 21 % du public sont d’accord.
Le sentiment croissant d’anxiété
Le rapport met en évidence une tendance inquiétante : même si l’utilisation de l’IA augmente, l’opinion publique se détériore. Cela est particulièrement évident parmi la génération Z qui, selon Gallup, est de plus en plus en colère et de moins en moins optimiste à l’égard de la technologie, bien qu’elle en soit un utilisateur fréquent.
Les données de Pew Research soulignent cette tension :
* Perspective générale : Seuls 10 % des Américains déclarent être plus enthousiasmés que préoccupés par l’intégration de l’IA dans la vie quotidienne.
* Soins de santé : Il existe ici un écart énorme ; 84 % des experts prédisent un impact positif sur les soins médicaux, contre seulement 44 % du public.
* Le facteur « nervosité » : À l’échelle mondiale, alors que la perception des avantages de l’IA a légèrement augmenté (de 55 % à 59 %), le nombre de personnes se sentant « nerveuses » face à la technologie a également grimpé à 52 %.
Confiance et réglementation
Le fossé ne concerne pas seulement la technologie, mais aussi la gouvernance. Le rapport note un manque de confiance important dans la capacité des institutions à gérer cette transition.
Aux États-Unis, la confiance dans le gouvernement pour réglementer l’IA de manière responsable est remarquablement faible, à seulement 31 %, surtout si on la compare à des pays comme Singapour, où la confiance s’élève à 81 %. Ce manque de confiance se reflète dans l’opinion publique à l’égard de la réglementation : 41 % des Américains pensent que la surveillance fédérale n’ira pas assez loin, tandis que seulement 27 % craignent qu’elle aille trop loin.
Le point de friction sociale
Cette déconnexion va au-delà des points de données et entre dans le domaine de la volatilité sociale. Le rapport souligne une rhétorique en ligne de plus en plus agressive, comme les réactions aux récents incidents impliquant le PDG d’OpenAI, Sam Altman, comme preuve d’un sentiment « anti-IA » croissant. Cela reflète les récents troubles civils et violences sur le lieu de travail alimentés par la frustration économique, ce qui suggère que si l’écart entre le progrès technologique et la stabilité sociale continue de se creuser, les frictions pourraient s’intensifier.
Les données suggèrent que tandis que l’industrie se concentre sur le « quoi » de l’IA (ce qu’elle peut faire et dans quelle mesure elle peut devenir intelligente), le public se concentre sur le « comment » (comment elle affectera sa capacité à gagner sa vie et à maintenir sa qualité de vie).
Conclusion
Le rapport de Stanford met en évidence un déséquilibre critique : à mesure que les capacités de l’IA s’accélèrent, la confiance du public et la sécurité économique sont à la traîne. Combler cet écart nécessitera plus que de simples avancées technologiques ; cela nécessitera de répondre aux craintes matérielles très réelles de la main-d’œuvre mondiale.































