Un événement organisé par
Espace Presse

Faire de GPT-2030 une entreprise émancipatrice


Société | Plénière

Écrit pour la plénière finale – Paroles d’espoirs

La dynamique ChatGPT[1] tranche avec celles des temps longs nécessaires à la recherche scientifique ou à la diffusion de l’IA dans l’économie. Dans un premier temps, il faut acter qu’elle est fondamentalement verticale, centralisée et inégalitaire: comme beaucoup de technologies émergentes, les prototypes d’IA les plus avancées naissent dans les mains de quelques-uns et leurs processus de conception demeurent hors de portée de beaucoup d’autres[2]. Une fois les effets de fascination et de sidération retombés, la question hautement politique du déploiement de l’IA se pose : celle des gains de productivité de l’automatisation dans l’économie et celle intimement liée des gains de soutenabilité et de sociabilité pour nos sociétés. Sauf à vouloir mettre en danger le pacte démocratique, la réponse ne peut pas être celle d’une technologie du fait accompli, où la conception des outils de l’automatisation, sa mise en œuvre et ses bénéfices seraient réservés à un petit nombre d’experts, entrepreneurs, ingénieurs ou chercheurs. Il existe une chance pour qu’ils puissent au contraire être participatifs, émancipateurs, et transparents.

Le rôle central des ingénieurs pour réduire l’asymétrie d’information dans le débat technologique

Les ingénieurs ont un rôle central à jouer pour réduire l’asymétrie d’information croissante entre industrie et société civile. Elle est largement entretenue par un héritage historique de préceptes qui ont dominé dans le développement de l’IA[3], orthogonaux à ceux d’une IA participative: l’autonomie (une vision de l’intelligence intrinsèquement autonome plutôt que sociale et relationnelle), la centralisation (une poignée de firmes sont aujourd’hui capables d’opérer à la frontière technologique pour développer les large language models les plus avancées) et la compétition homme-machine (des pratiques d’évaluation de  l’IA qui surestiment la réalité des performances de l’IA une fois utilisée dans la vie réelle). Nous ne sommes pas condamnés à subir une automatisation centralisée et purement autonome de laquelle l’humain serait exclu. Des visions alternatives ont toujours pu se développer: celle de Steve Jobs imaginant la technologie comme “une bicyclette pour le cerveau” ou de Douglas C. Engelbart pensant “l’homme augmenté”. Les technologistes doivent également s’interroger sur la responsabilité qui leur incombe pour communiquer et partager le bon niveau d’information afin qu’il soit suffisamment éclairant et actionnable pour la société. Nos biais cognitifs nous limitent souvent dans notre capacité à extrapoler au-delà de ce qui nous paraît être « le raisonnable » pour comprendre les dynamiques des disruptions technologiques. Cet état de fait s’amplifie d’autant plus que le phénomène d’éditorialisation de l’IA ou demoware selon le néologisme de Gary Marcus s’accélère. L’illusion d’une présentation simplifiée masque parfois le manque de maturité d’une technologie.

Le rôle central des partenaires sociaux dans l’orientation de la transition technologique et de l’automatisation

Les sociétés civiles des démocraties libérales occidentales semblent majoritairement anxieuses vis-à-vis de l’IA. Un sondage IPSOS pour le AI index de l’université de Stanford[4] classe ainsi la France en dernière position des pays les plus optimistes sur les bénéfices de l’utilisation de l’IA. L’Allemagne ou les Etats-Unis occupent également les dernières places d’un classement dominé par la Chine et l’Arabie saoudite. Les perceptions diffèrent également entre catégories d’actifs, les travailleurs de première ligne étant significativement plus pessimistes vis-à-vis de l’IA que les décideurs. Le risque de fracturation du pacte social et démocratique est donc posé. Le rôle des partenaires sociaux dans l’accompagnement de l’automatisation et l’élaboration des nouvelles conditions de travail à l’heure de l’IA générative devient un enjeu crucial. La compréhension fine qu’ils tireront de leur participation au déploiement de la technologie sur le lieu de travail leur permettra de peser pour ajuster l’offre de formation continue indispensable dans une ère de changement technologique aussi structurant. En juin 2023, la secrétaire générale de la confédération européenne des syndicats, Esther Lynch, a appelé à « impliquer les travailleurs et leurs syndicats dans l’introduction de la technologie”[5], thèse également soutenue par l’économiste Daron Acemoglu[6] (MIT). L’automatisation ainsi co-construite, certainement produit de conflit et de compromis doit permettre de créer de nouvelles tâches pour augmenter la productivité des infirmières, artistes, professeurs, artisans etc.

Le rôle central des institutions internationales dans la gouvernance de l’IA

Pour faire face aux nouveaux risques que ferait peser une prolifération précipitée et non maîtrisée de l’IA générative la plus avancée, les gouvernements doivent penser la gouvernance globale de l’IA. Cela passe d’abord par une compréhension partagée des défis comme base préalable. Une telle gouvernance pourrait s’appuyer ensuite sur le caractère intrinsèquement itératif des cycles de développement de l’IA nécessitant une boucle de rétroaction incessante avec les utilisateurs[7], pour inclure des mécanismes d’expérimentation de participation de la société civile afin d’orienter les choix concernant le type d’automatisation déployé dans l’espace public ou sur le lieu de travail. Les notions d’altruisme des données et de coopératives introduites dans le Data Governance Act européen fournissent des exemples inspirants: ces entités ont vocation à assurer l’intermédiation entre consommateurs et entreprises traitant les données pour permettre aux utilisateurs d’être mieux représentés, de s’exprimer d’une même voix et d’exercer réellement leurs droits.

Dans un discours à la Sorbonne en 1994, Derrida nous rappelle les lois élémentaires de la tragédie: “il y a l’inéluctable, d’une part, et la décision, d’autre part: il y a la nécessité, d’une part, et la responsabilité, d’autre part”. Le futur de l’IA générative sera inévitablement soumis aux forces de la nécessité et de la responsabilité. Toutefois, il nous appartient de bâtir un triptyque[8] efficace entre technologistes, partenaires sociaux et institutions internationales pour faire de GPT-2030 un outil prodigieux[9] au service de la prospérité partagée.


[1] Si GPT-3, introduit en 2020, a mis deux ans pour atteindre le million d’utilisateurs, il n’a fallu que deux mois à Dall-E 2 pour atteindre cet objectif et cinq jours à ChatGPT.

[2] https://openjournals.uwaterloo.ca/index.php/JoCI/article/download/2832/3632?inline=1

[3] https://ethics.harvard.edu/how-ai-fails-us

[4] https://aiindex.stanford.edu/report/

[5] https://www.rfi.fr/en/business-and-tech/20230523-humans-must-stay-in-control-of-ai-european-trade-union-chief-warns

[6] https://shapingwork.mit.edu/power-and-progress/

[7] https://openai.com/research/learning-from-human-preferences

[8] https://www.college-de-france.fr/fr/agenda/cours/innovation-et-le-triangle-entre-marche-etat-et-societe-civile

[9] https://bounded-regret.ghost.io/what-will-gpt-2030-look-like/

This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.