Silicon Valley stifled the AI doom movement in 2024


Depuis plusieurs années maintenant, les technologues tirent la sonnette d’alarme sur le potentiel des systèmes d’IA avancés de causer des dommages catastrophiques à la race humaine.

Mais en 2024, ces appels d’avertissement ont été étouffés par une vision pratique et prospère de l’IA générative promue par l’industrie technologique – une vision qui a également profité à leurs portefeuilles.

Ceux qui mettent en garde contre les risques catastrophiques de l’IA sont souvent qualifiés de « doomers de l’IA », même si ce n’est pas un nom qu’ils aiment. Ils craignent que les systèmes d’IA prennent des décisions visant à tuer des gens, soient utilisés par les puissants pour opprimer les masses ou contribuent à la chute de la société d’une manière ou d’une autre.

En 2023, il semblait que nous étions au début d’une ère de renaissance de la réglementation technologique. Le désastre de l’IA et la sécurité de l’IA – un sujet plus large qui peut englober les hallucinations, la modération insuffisante du contenu et d’autres façons dont l’IA peut nuire à la société – sont passés d’un sujet de niche discuté dans les cafés de San Francisco à une conversation apparaissant sur MSNBC, CNN et en première page. du New York Times.

Pour résumer les avertissements lancés en 2023 : Elon Musk et plus de 1 000 technologues et scientifiques ont appelé à une pause dans le développement de l’IA, demandant au monde de se préparer aux risques profonds de cette technologie. Peu de temps après, les meilleurs scientifiques d’OpenAI, de Google et d’autres laboratoires ont signé une lettre ouverte affirmant que le risque que l’IA provoque l’extinction de l’humanité devrait être davantage pris en compte. Quelques mois plus tard, le président Biden a signé un décret sur l’IA dont l’objectif général est de protéger les Américains des systèmes d’IA. En novembre 2023, le conseil d’administration à but non lucratif derrière le principal développeur mondial d’IA, OpenAI, a licencié Sam Altman, affirmant que son PDG avait la réputation de mentir et qu’on ne pouvait pas lui faire confiance avec une technologie aussi importante que l’intelligence artificielle générale, ou AGI – une fois le point final imaginé de l’IA, c’est-à-dire des systèmes qui montrent réellement une conscience de soi. (Bien que la définition évolue désormais pour répondre aux besoins commerciaux de ceux qui en parlent.)

Pendant un moment, il a semblé que les rêves des entrepreneurs de la Silicon Valley allaient passer au second plan par rapport à la santé globale de la société.

Mais pour ces entrepreneurs, le récit autour de la catastrophe de l’IA était plus préoccupant que les modèles d’IA eux-mêmes.

En réponse, le cofondateur d’a16z, Marc Andreessen, a publié «Pourquoi l’IA sauvera le monde» en juin 2023, un essai de 7 000 mots démantelant le programme des pessimistes de l’IA et présentant une vision plus optimiste de la façon dont la technologie se déroulera.

SAN FRANCISCO, CA – 13 SEPTEMBRE : L’entrepreneur Marc Andreessen s’exprime sur scène lors de TechCrunch Disrupt SF 2016 au Pier 48 le 13 septembre 2016 à San Francisco, en Californie. (Photo de Steve Jennings/Getty Images pour TechCrunch)Crédits images :Steve Jennings/Getty Images

« L’ère de l’intelligence artificielle est arrivée, et les gens paniquent. Heureusement, je suis ici pour annoncer la bonne nouvelle : l’IA ne détruira pas le monde, mais pourrait même le sauver », a déclaré Andreessen dans le communiqué. essai.

Dans sa conclusion, Andreessen a proposé une solution pratique à nos craintes en matière d’IA : agir vite et casser les choses – essentiellement la même idéologie qui a défini toutes les autres technologies du 21e siècle (et les problèmes qui en découlent). Il a fait valoir que les grandes entreprises technologiques et les startups devraient être autorisées à développer l’IA aussi rapidement et de manière agressive que possible, avec peu ou pas d’obstacles réglementaires. Cela garantirait que l’IA ne tombe pas entre les mains de quelques entreprises ou gouvernements puissants et permettrait à l’Amérique de rivaliser efficacement avec la Chine, a-t-il déclaré.

Bien sûr, cela permettrait également aux nombreuses startups d’IA d’a16z de gagner beaucoup plus d’argent – ​​et certains ont trouvé son techno-optimisme grossier à une époque d’extrême disparité des revenus, de pandémies et de crises du logement.

Même si Andreessen n’est pas toujours d’accord avec Big Tech, gagner de l’argent est un domaine sur lequel l’ensemble du secteur peut s’entendre. Les cofondateurs d’a16z ont écrit cette année une lettre au PDG de Microsoft, Satya Nadella, demandant essentiellement au gouvernement de ne pas réglementer du tout l’industrie de l’IA.

Pendant ce temps, malgré leurs agitements frénétiques de la main en 2023, Musk et d’autres technologues n’ont pas cessé de ralentir pour se concentrer sur la sécurité en 2024 – bien au contraire : les investissements dans l’IA en 2024 ont dépassé tout ce que nous avions vu auparavant. Altman est rapidement revenu à la tête d’OpenAI, et un grand nombre de chercheurs en sécurité ont quitté l’entreprise en 2024 tout en tirant la sonnette d’alarme sur la diminution de sa culture de sécurité.

Le décret de Biden sur l’IA axé sur la sécurité est largement tombé en disgrâce cette année à Washington, DC – a annoncé le nouveau président élu, Donald Trump. envisage d’abroger l’ordonnance de Bidenarguant que cela entrave l’innovation en matière d’IA. Andreessen dit qu’il a conseillé Trump sur l’IA et la technologie ces derniers mois, et un capital-risqueur de longue date chez a16z, Sriram Krishnan, est désormais le conseiller principal officiel de Trump en matière d’IA.

Les Républicains de Washington ont plusieurs priorités liées à l’IA qui dépassent aujourd’hui la catastrophe de l’IA, selon Dean Ball, chercheur spécialisé dans l’IA au Mercatus Center de l’Université George Mason. Il s’agit notamment de la construction de centres de données pour alimenter l’IA, de l’utilisation de l’IA au sein du gouvernement et de l’armée, de la concurrence avec la Chine, de la limitation de la modération du contenu des entreprises technologiques de centre-gauche et de la protection des enfants contre les chatbots IA.

“Je pense [the movement to prevent catastrophic AI risk] a perdu du terrain au niveau fédéral. Aux niveaux national et local, ils ont également perdu le seul combat majeur qu’ils avaient mené », a déclaré Ball dans une interview avec TechCrunch. Bien sûr, il fait référence au projet de loi controversé SB 1047 sur la sécurité de l’IA en Californie.

Une partie de la raison pour laquelle l’IA est tombée en disgrâce en 2024 est simplement due au fait que, à mesure que les modèles d’IA sont devenus plus populaires, nous avons également constaté à quel point ils peuvent être inintelligents. Difficile d’imaginer Google Gemini devenir Skynet alors qu’il se contente de vous dire de mettre de la colle sur votre pizza.

Mais en même temps, 2024 a été une année où de nombreux produits d’IA ont semblé donner vie à des concepts issus de la science-fiction. Pour la première fois cette année : OpenAI a montré comment nous pouvions parler avec nos téléphones et non à travers eux, et Meta a dévoilé des lunettes intelligentes avec une compréhension visuelle en temps réel. Les idées qui sous-tendent le risque catastrophique de l’IA proviennent en grande partie des films de science-fiction, et même s’il y a évidemment une limite, l’ère de l’IA prouve que certaines idées issues de la science-fiction ne seront peut-être pas éternellement fictives.

Le plus grand combat funeste de l’IA de 2024 : SB 1047

Le sénateur d’État Scott Wiener, démocrate de Californie, à droite, lors du sommet Bloomberg BNEF à San Francisco, Californie, États-Unis, le mercredi 31 janvier 2024. Le sommet fournit les idées, les perspectives et les liens nécessaires pour formuler des stratégies efficaces, capitaliser sur le changement technologique et façonner un avenir plus propre et plus compétitif. Photographe : David Paul Morris/Bloomberg via Getty ImagesCrédits images :David Paul Morris/Bloomberg via Getty Images / Getty Images

La bataille pour la sécurité de l’IA en 2024 a atteint son paroxysme avec le SB 1047, un projet de loi soutenu par deux chercheurs réputés en IA : Geoffrey Hinton et Yoshua Benjio. Le projet de loi visait à empêcher les systèmes d’IA avancés de provoquer des extinctions humaines massives et des cyberattaques qui pourraient causer plus de dégâts que la panne de CrowdStrike de 2024.

Le SB 1047 a été adopté par l’Assemblée législative de Californie, jusqu’au bureau du gouverneur Gavin Newsom, où il l’a qualifié de projet de loi à « impact démesuré ». Le projet de loi visait à empêcher le genre de choses contre lesquelles Musk, Altman et de nombreux autres dirigeants de la Silicon Valley avaient mis en garde en 2023 lorsqu’ils ont signé ces lettres ouvertes sur l’IA.

Mais Newsom a opposé son veto au SB 1047. Dans les jours qui ont précédé sa décision, il a parlé de la réglementation de l’IA sur scène au centre-ville de San Francisco, en déclarant : « Je ne peux pas tout résoudre. Que pouvons-nous résoudre ?

Cela résume assez clairement la façon dont de nombreux décideurs politiques réfléchissent aujourd’hui au risque catastrophique de l’IA. Ce n’est tout simplement pas un problème de solution pratique.

Malgré cela, le SB 1047 présentait des défauts au-delà de sa focalisation sur le risque catastrophique de l’IA. Le projet de loi réglementait les modèles d’IA en fonction de leur taille, dans le but de réglementer uniquement les plus grands acteurs. Cependant, cela ne prend pas en compte les nouvelles techniques telles que le calcul au moment des tests ou l’essor des petits modèles d’IA, vers lesquels les principaux laboratoires d’IA se tournent déjà. En outre, le projet de loi a été largement considéré comme une attaque contre l’IA open source – et par procuration, le monde de la recherche – car il empêcherait des entreprises comme Meta et Mistral de publier des modèles d’IA hautement personnalisables.

Mais selon l’auteur du projet de loi, le sénateur Scott Wiener, la Silicon Valley a joué un sale rôle pour influencer l’opinion publique sur le SB 1047. Il avait précédemment déclaré à TechCrunch que les investisseurs en capital-risque de Y Combinator et A16Z s’étaient engagés dans une campagne de propagande contre le projet de loi.

Plus précisément, ces groupes ont répandu l’affirmation selon laquelle le SB 1047 enverrait les développeurs de logiciels en prison pour parjure. Y Combinator a demandé aux jeunes fondateurs de signer une lettre pour le dire en juin 2024. À peu près à la même époque, l’associée générale d’Andreessen Horowitz, Anjney Midha, a fait une déclaration similaire sur un podcast.

La Brookings Institution a qualifié cela de une des nombreuses fausses déclarations du projet de loi. Le SB 1047 mentionne que les dirigeants du secteur technologique devraient soumettre des rapports identifiant les lacunes de leurs modèles d’IA, et le projet de loi souligne que mentir sur un document gouvernemental constitue un parjure. Cependant, les investisseurs en capital-risque qui ont propagé ces craintes ont omis de mentionner que les gens sont rarement accusés de parjure, et encore plus rarement condamnés.

YC a rejeté l’idée selon laquelle ils propageraient de la désinformation, déclarant auparavant à TechCrunch que le SB 1047 était vague et pas aussi concret que le sénateur Wiener le prétendait.

Plus généralement, lors de la lutte contre le SB 1047, le sentiment s’est accru que les doomers de l’IA n’étaient pas seulement anti-technologie, mais aussi délirants. En octobre de cette année, le célèbre investisseur Vinod Khosla a qualifié Wiener d’ignorant les véritables dangers de l’IA.

Le scientifique en chef de l’IA de Meta, Yann LeCun, s’est longtemps opposé aux idées qui sous-tendent la catastrophe de l’IA, mais il est devenu plus franc cette année.

“L’idée que d’une manière ou d’une autre [intelligent] les systèmes définiront leurs propres objectifs et prendront le contrôle de l’humanité, c’est tout simplement absurde, c’est ridicule », a déclaré LeCun à Davos en 2024soulignant à quel point nous sommes très loin de développer des systèmes d’IA superintelligents. « Il existe de nombreuses façons de construire [any technology] d’une manière qui sera dangereuse, mauvaise, tuera des gens, etc… Mais tant qu’il existe une façon de bien faire les choses, c’est tout ce dont nous avons besoin.

Pendant ce temps, les décideurs politiques ont porté leur attention sur un nouvel ensemble de problèmes de sécurité de l’IA.

Le combat à venir en 2025

Les décideurs politiques derrière le SB 1047 ont laissé entendre ils pourraient revenir en 2025 avec une facture modifiée pour faire face aux risques à long terme liés à l’IA. L’un des sponsors du projet de loi, Encode, affirme que l’attention nationale attirée par le SB 1047 était un signal positif.

“Le mouvement pour la sécurité de l’IA a fait des progrès très encourageants en 2024, malgré le veto du SB 1047”, a déclaré Sunny Gandhi, vice-président des affaires politiques d’Encode, dans un e-mail à TechCrunch. « Nous sommes optimistes quant au fait que le public est de plus en plus conscient des risques à long terme liés à l’IA et que les décideurs politiques sont de plus en plus disposés à relever ces défis complexes. »

Gandhi dit qu’Encode s’attend à des « efforts importants » en 2025 pour réglementer les risques catastrophiques assistés par l’IA, même si elle n’en a divulgué aucun en particulier.

De l’autre côté, Martin Casado, associé général d’a16z, fait partie des personnes qui mènent la lutte contre la réglementation des risques catastrophiques liés à l’IA. En décembre article d’opinion Concernant la politique en matière d’IA, Casado a fait valoir que nous avons besoin d’une politique en matière d’IA plus raisonnable pour aller de l’avant, déclarant que « l’IA semble être extrêmement sûre ».

“La première vague d’efforts politiques stupides en matière d’IA est en grande partie derrière nous”, a déclaré Casado dans un tweet de décembre. “J’espère que nous pourrons être plus intelligents à l’avenir.”

Qualifier l’IA de « extrêmement sûre » et les tentatives de la réglementer de « stupides » relève d’une simplification excessive. Par exemple, Character.AI – une startup dans laquelle a16z a investi – est actuellement en cours de développement. poursuivi et a enquêté sur des problèmes de sécurité des enfants. Dans un procès en cours, un garçon de Floride de 14 ans s’est suicidé après avoir prétendument confié ses pensées suicidaires à un chatbot Character.AI avec qui il avait eu des discussions romantiques et sexuelles. Ce cas, en soi, montre comment notre société doit se préparer à de nouveaux types de risques liés à l’IA qui auraient pu paraître ridicules il y a quelques années à peine.

De plus en plus de projets de loi circulent sur les risques à long terme liés à l’IA – dont un qui vient d’être présenté au niveau fédéral par Le sénateur Mitt Romney. Mais maintenant, il semble que les doomers de l’IA mèneront une bataille difficile en 2025.

Leave a Reply

Your email address will not be published. Required fields are marked *