Le lancement récent du modèle d’IA Gemini 2.5 Pro de Google a suscité une controverse en raison de l’absence d’un rapport de sécurité crucial. Cette omission semble contredire les promesses faites par Google au gouvernement américain et lors de sommets internationaux, soulevant des inquiétudes quant à l’engagement de l’entreprise en matière de transparence et de développement responsable de l’IA. Les experts se demandent maintenant si Google et d’autres grands laboratoires d’IA reviennent sur leurs promesses d’informer le public sur les capacités et les risques potentiels associés à leurs modèles d’IA.
Promesses Non Tenues et Engagements Non Respectés
L’incapacité de Google à fournir un rapport de recherche sur la sécurité parallèlement à la publication de Gemini 2.5 Pro est considérée comme une violation des engagements précédents. En juillet 2023, Google a participé à une réunion à la Maison Blanche convoquée par l’administration Biden, où elle s’est jointe à d’autres sociétés d’IA de premier plan pour signer une série d’engagements. Un engagement clé était la publication de rapports pour toutes les versions majeures de modèles publics qui dépassaient l’IA de pointe actuelle à l’époque. Compte tenu de ses progrès, Gemini 2.5 Pro relèverait presque certainement du champ d’application de ces engagements de la Maison Blanche.
À l’époque, Google a convenu que ces rapports devraient comprendre :
- Les évaluations de sécurité menées, y compris les évaluations des capacités dangereuses.
- Les limitations de performance importantes qui pourraient avoir un impact sur les cas d’utilisation appropriés.
- Les discussions sur les effets du modèle sur les risques sociétaux tels que l’équité et les biais.
- Les résultats des tests adverses pour évaluer l’aptitude du modèle au déploiement.
Suite à la réunion du G7 à Hiroshima, au Japon, en octobre 2023, Google et d’autres entreprises se sont engagées à respecter un code de conduite volontaire pour le développement de l’IA avancée. Ce code du G7 a souligné l’importance de signaler publiquement les capacités, les limites et les applications appropriées et inappropriées des systèmes d’IA avancés. L’objectif était d’améliorer la transparence et la responsabilité dans le domaine de l’IA.
En mai 2024, lors d’un sommet international sur la sécurité de l’IA qui s’est tenu à Séoul, en Corée du Sud, Google a réitéré ses engagements. L’entreprise a promis de divulguer publiquement les capacités, les limites, les cas d’utilisation appropriés et inappropriés des modèles, et de fournir une transparence autour de ses évaluations des risques et de ses résultats.
Réponse de Google et Transparence Retardée
En réponse aux questions concernant le rapport de sécurité manquant, un porte-parole de Google DeepMind, la division responsable du développement des modèles Gemini, a déclaré que le dernier Gemini avait subi des tests de pré-lancement. Cela comprenait des évaluations de développement internes et des évaluations d’assurance menées avant la publication du modèle. Le porte-parole a également indiqué qu’un rapport contenant des informations de sécurité supplémentaires et des fiches de modèle était ‘à venir’. Cependant, malgré la publication de la déclaration initiale le 2 avril, aucune fiche de modèle n’a été publiée à ce jour.
Une Tendance Plus Large de Négligence des Rapports de Sécurité
Google n’est pas la seule à faire face à des critiques concernant son engagement envers la sécurité de l’IA. Plus tôt dans l’année, OpenAI a également été confrontée à un examen minutieux pour ne pas avoir publié une fiche de modèle en temps opportun pour son modèle Deep Research. Au lieu de cela, ils ont publié une fiche de système quelques semaines après la publication initiale du projet. De même, le récent rapport de sécurité de Meta pour Llama 4 a été critiqué pour être trop bref et manquer de détails.
Ces exemples mettent en évidence une tendance inquiétante au sein de l’industrie de l’IA, où certains grands laboratoires ne donnent pas la priorité aux rapports de sécurité conformément à leurs versions de modèles. Ceci est particulièrement préoccupant compte tenu des engagements volontaires que ces entreprises ont pris envers le gouvernement américain et la communauté mondiale de produire de tels rapports. Ces engagements ont été initialement pris envers l’administration Biden en 2023 et ont ensuite été renforcés par des engagements à se conformer au code de conduite de l’IA adopté par les nations du G7 lors de leur sommet sur l’IA à Hiroshima.
Kevin Bankston, conseiller en gouvernance de l’IA au Center for Democracy and Technology, a exprimé sa déception, déclarant que ces échecs minent la crédibilité des entreprises impliquées et soulèvent des questions quant à leur engagement envers un développement responsable de l’IA.
Questions Sans Réponse et Évaluation Externe
La déclaration du porte-parole de Google n’a pas non plus répondu aux questions spécifiques quant à savoir si Gemini 2.5 Pro avait été soumis à une évaluation externe par l’U.K. AI Security Institute ou l’U.S. AI Safety Institute. Auparavant, Google avait fourni les générations précédentes de ses modèles Gemini à l’U.K. AI Safety Institute pour évaluation.
Au Sommet de Séoul sur la sécurité, Google a adhéré aux ‘Engagements de sécurité de l’IA de pointe’, qui comprenaient un engagement à assurer la transparence publique sur la mise en œuvre des évaluations de sécurité. Les seules exceptions étaient les cas où cela augmenterait le risque ou divulguerait des informations commerciales sensibles à un degré disproportionné par rapport à l’avantage sociétal. L’engagement stipulait également que des informations plus détaillées qui ne pouvaient pas être partagées publiquement devraient toujours être partagées avec les gouvernements des pays dans lesquels les entreprises sont basées, ce qui serait les États-Unis dans le cas de Google.
Les entreprises se sont également engagées à expliquer comment les acteurs externes, tels que les gouvernements, la société civile, les universitaires et le public, sont impliqués dans le processus d’évaluation des risques de leurs modèles d’IA. L’incapacité de Google à répondre aux questions directes quant à savoir si elle a soumis Gemini 2.5 Pro aux évaluateurs gouvernementaux américains ou britanniques viole potentiellement également cet engagement.
Prioriser le Déploiement Plutôt Que la Transparence
L’absence d’un rapport de sécurité a soulevé des inquiétudes quant à la possibilité que Google privilégie un déploiement rapide plutôt que la transparence et des évaluations de sécurité approfondies. Sandra Wachter, professeure et chercheuse principale à l’Oxford Internet Institute, a souligné l’importance de la transparence dans la recherche et l’innovation responsables. Elle a fait une analogie avec d’autres industries, déclarant que ‘Si c’était une voiture ou un avion, nous ne dirions pas : mettons simplement cela sur le marché le plus rapidement possible et nous examinerons les aspects de sécurité plus tard.’ Wachter s’est inquiétée du fait qu’il existe une attitude dominante dans le domaine de l’IA générative consistant à ‘mettre cela en avant et à s’inquiéter, enquêter et résoudre les problèmes plus tard’.
Changements Politiques et Pressions Concurrentielles
Les récents changements politiques, associés à l’intensification de la rivalité entre les grandes entreprises technologiques, pourraient contribuer à un abandon des engagements de sécurité antérieurs, car les entreprises se précipitent pour déployer des modèles d’IA. Wachter a noté que ‘Le point de pression pour ces entreprises d’être plus rapides, d’être plus rapides, d’être les premières, d’être les meilleures, d’être dominantes, est plus important qu’il ne l’était auparavant’, ajoutant que les normes de sécurité étaient en baisse dans l’ensemble de l’industrie.
Ces normes glissantes pourraient être motivées par une inquiétude croissante parmi les pays technologiques et certains gouvernements que les procédures de sécurité de l’IA entravent l’innovation. Aux États-Unis, l’administration Trump a indiqué son intention d’adopter une approche moins rigoureuse de la réglementation de l’IA par rapport à l’administration Biden. La nouvelle administration a déjà annulé un décret de l’ère Biden sur l’IA et a cultivé des relations plus étroites avec les dirigeants technologiques. Lors du récent sommet sur l’IA à Paris, le vice-président américain JD Vance a déclaré que les ‘politiques d’IA pro-croissance’ devraient être prioritaires par rapport à la sécurité et que l’IA était ‘une opportunité que l’administration Trump ne gaspillera pas’.
Lors de ce même sommet, le Royaume-Uni et les États-Unis ont tous deux refusé de signer un accord international sur l’intelligence artificielle qui promouvait une approche ‘ouverte’, ‘inclusive’ et ‘éthique’ du développement de la technologie.
La Nécessité d’Exigences de Transparence Claires
Bankston a souligné que ‘Si nous ne pouvons pas compter sur ces entreprises pour remplir même leurs engagements de sécurité et de transparence les plus élémentaires lors de la publication de nouveaux modèles - des engagements qu’elles ont elles-mêmes pris volontairement - alors elles publient clairement des modèles trop rapidement dans leur course concurrentielle pour dominer le domaine.’ Il a ajouté que, comme les développeurs d’IA continuent de faiblir dans ces engagements, il incombera aux législateurs d’élaborer et d’appliquer des exigences de transparence claires que les entreprises ne peuvent pas éluder.
Les Implications Plus Larges pour la Gouvernance de l’IA
La controverse entourant Gemini 2.5 Pro de Google et le rapport de sécurité manquant souligne la nécessité cruciale de cadres de gouvernance de l’IA robustes. Ces cadres devraient aborder des questions clés telles que :
- Transparence : S’assurer que les développeurs d’IA sont transparents sur les capacités, les limites et les risques potentiels de leurs modèles.
- Responsabilité : Établir des lignes de responsabilité claires pour le développement et le déploiement des systèmes d’IA.
- Sécurité : Mettre en œuvre des procédures rigoureuses de test et d’évaluation de la sécurité pour minimiser le risque de préjudice.
- Considérations éthiques : Intégrer des principes éthiques dans la conception et le développement des systèmes d’IA.
- Engagement du public : S’engager auprès du public pour favoriser une compréhension plus large de l’IA et de ses implications.
- Coopération internationale : Collaborer à l’échelle internationale pour élaborer des normes communes et des meilleures pratiques pour la gouvernance de l’IA.
Le manque de transparence entourant Gemini 2.5 Pro met en évidence les conséquences potentielles de la négligence de ces aspects cruciaux de la gouvernance de l’IA. Sans une transparence et une responsabilité adéquates, il devient difficile d’évaluer le véritable impact des systèmes d’IA et de s’assurer qu’ils sont développés et déployés de manière responsable et éthique.
Aller de l’Avant : Un Appel à Plus de Responsabilité
L’industrie de l’IA se trouve à un tournant critique. À mesure que les technologies d’IA deviennent de plus en plus puissantes et omniprésentes, il est essentiel que les développeurs privilégient la sécurité, la transparence et les considérations éthiques. La controverse entourant Gemini 2.5 Pro nous rappelle que les engagements volontaires ne suffisent pas toujours. Les gouvernements et les organismes de réglementation doivent jouer un rôle plus actif dans l’établissement de normes claires et l’application de la conformité.
De plus, il est crucial que les développeurs d’IA s’engagent auprès du public et favorisent une compréhension plus large de l’IA et de ses implications. Cela comprend la transparence sur les limites et les risques potentiels des systèmes d’IA, ainsi que sur les mesures prises pour atténuer ces risques. En travaillant ensemble, l’industrie de l’IA, les gouvernements et le public peuvent s’assurer que les technologies d’IA sont développées et déployées d’une manière qui profite à la société dans son ensemble.
Une gouvernance robuste et une supervision constante sont essentielles pour garantir que les développements de l’IA restent alignés sur les valeurs sociétales et ne causent pas de préjudices involontaires. L’évolution rapide de l’IA exige que toutes les parties prenantes restent vigilantes et adaptables aux nouveaux défis et opportunités. Cela signifie non seulement respecter les réglementations existantes, mais également s’engager dans un dialogue continu afin d’anticiper et de traiter les préoccupations futures.
En fin de compte, la clé d’un développement responsable de l’IA réside dans un effort collectif, chacun apportant ses compétences et ses perspectives pour assurer une croissance sûre et bénéfique de cette technologie transformatrice. Les entreprises doivent reconnaître que la transparence et la responsabilité ne sont pas des obstacles à l’innovation, mais des composantes essentielles de celle-ci. En donnant la priorité à ces valeurs, elles peuvent créer un climat de confiance et de collaboration qui favorise l’innovation durable tout en protégeant la société des risques potentiels.
La controverse entourant Gemini 2.5 Pro de Google devrait servir de signal d’alarme à l’ensemble de l’industrie de l’IA, incitant à une réévaluation des priorités et à un engagement renouvelé en faveur d’un développement éthique et responsable. Ce n’est qu’en adoptant une approche holistique qui équilibre l’innovation, la sécurité et le bien-être sociétal que nous pourrons exploiter tout le potentiel de l’IA tout en minimisant ses risques potentiels.
Les prochaines étapes devraient inclure des efforts concertés pour élaborer des normes industrielles complètes, des processus d’audit indépendants et des mécanismes de surveillance transparents. Ces mesures contribueront à créer un cadre de responsabilité qui tient les développeurs d’IA responsables de leurs actions et garantit que la technologie est utilisée d’une manière qui profite à tous.
Par ailleurs, des investissements supplémentaires dans la recherche et le développement sont nécessaires pour identifier et traiter les biais potentiels, les vulnérabilités en matière de sécurité et d’autres risques associés aux systèmes d’IA. Cette recherche devrait être collaborative, impliquant des experts de divers domaines, notamment l’informatique, l’éthique, le droit et les sciences sociales. En travaillant ensemble, ces experts peuvent contribuer à identifier et à atténuer les défis potentiels avant qu’ils ne posent des problèmes importants.
Enfin, il est essentiel d’éduquer le public sur les capacités et les limites de l’IA. Cette éducation devrait aborder à la fois les avantages potentiels de la technologie et les risques potentiels, permettant ainsi aux individus de prendre des décisions éclairées sur son utilisation. En favorisant une plus grande compréhension de l’IA, nous pouvons contribuer à dissiper les mythes et les craintes, tout en veillant à ce que la technologie soit utilisée d’une manière qui soit conforme aux valeurs et aux priorités sociétales.
À l’avenir, il sera essentiel que les développeurs, les gouvernements et le public travaillent ensemble pour créer un avenir de l’IA sûr, éthique et bénéfique. Ce n’est qu’en adoptant une approche collaborative que nous pourrons libérer tout le potentiel de l’IA tout en protégeant la société des risques potentiels.