Le paysage de l’IA est très compétitif, plusieurs entreprises se battant pour attirer l’attention des utilisateurs (et, en fin de compte, l’argent). Alors que ChatGPT est devenu le nom familier dans le domaine de l'IA (un peu comme Google l'est pour la recherche), la dynamique du pouvoir pourrait changer, avec un mouvement « Annuler ChatGPT » qui attire l'attention.

Le PDG d'OpenAI, Sam Altman, a publié hier soir sur X que sa société avait conclu un accord avec le Département américain de la guerre « pour déployer nos modèles dans leur réseau classifié ». Il a poursuivi : « Dans toutes nos interactions, le DoW a fait preuve d'un profond respect pour la sécurité et d'un désir de partenariat pour obtenir le meilleur résultat possible. »

Mais les utilisateurs ne semblent pas enthousiastes à l’idée de prendre ses affirmations au pied de la lettre, et il est difficile de leur en vouloir. OpenAI vient de revendiquer sa solidarité avec son rival Anthropic en refusant que ses produits soient utilisés pour une « surveillance intérieure de masse » ou des « armes entièrement autonomes ». Mais il est possible que cette solidarité n'ait été qu'une opportunité pour OpenAI de conclure son propre accord et potentiellement de laisser le DOW se déchaîner avec sa technologie d'une manière qui pourrait inclure la surveillance des citoyens américains.

Dans un article de blog, Anthropic a déclaré : « Le ministère de la Guerre a déclaré qu'il ne contracterait qu'avec les sociétés d'IA qui acceptent « toute utilisation légale » et suppriment les garanties dans les cas mentionnés ci-dessus », et le message d'Altman implique qu'OpenAI est d'accord avec le gouvernement utilisant ses outils, qui, dans certains segments du Patriot Act, pourraient assez facilement conduire à la surveillance de masse des citoyens américains dans le cadre des dispositions sur la surveillance des citoyens étrangers.

Annulez votre ChatGPT Plus, gravez leur calcul en sortant et passez à Claude depuis r/ChatGPT

Les utilisateurs réagissent donc de la seule manière qui puisse réellement nuire à OpenAI : avec leur portefeuille. Le mouvement « Annuler ChatGPT » se propage et semble frapper l'énorme entreprise d'IA sur son compte bancaire. Bien sûr, il est difficile d'évaluer l'ampleur des annulations – il pourrait s'agir d'une minorité bruyante postant sur Reddit et X tandis que la majorité des utilisateurs de ChatGPT continuent, ignorant parfaitement que leurs données pourraient être utilisées par le ministère de la Guerre.

Mais même si OpenAI est actuellement la ligne de mire d'Internet (et Anthropic reçoit tous les éloges), il convient de noter qu'OpenAI n'est pas le seul à accepter que ses services d'IA soient utilisés à des fins de surveillance potentielle et d'armes autonomes.

Par exemple, Google a supprimé l’année dernière une interdiction explicite de la technologie de ses règles internes, laissant Gemini ouvert à de telles utilisations potentielles. Amazon ne propose qu'un vague langage « d'utilisation responsable » dans sa documentation.


Sam Altman lors d'une conférence de presse

Les leaders de la course à l'IA ont beaucoup de pouvoir entre leurs mains, et même si Altman a déclaré : « Nous restons déterminés à servir toute l'humanité du mieux que nous pouvons. Le monde est un endroit compliqué, désordonné et parfois dangereux », il est difficile de le prendre au mot avec des décisions comme celles-ci.

Je ne sais pas pour vous, mais l'idée que ChatGPT ou tout autre modèle d'IA décide qu'il m'a vu commettre un crime alors qu'il hallucine, même avec certaines des invites les plus élémentaires, est plutôt effrayante. Et l’idée qu’elle contrôlerait les missiles et déterminerait les cibles est encore plus effrayante.

Bien sûr, affirme Altman, « Nous allons également mettre en place des mesures de protection techniques pour garantir que nos modèles se comportent comme ils le devraient, ce que le DoW souhaitait également », mais est-ce que cela vous rassure quant à ce qui se passe ici ? Cela ne m'aide certainement pas à mieux dormir.



Google Actualités