
Monde Numérique - Actu Tech
đ Lâalerte du patron de Claude sur les dangers de lâIA (Zoom Tech)
·6 min
Lâintelligence artificielle pourrait-elle devenir une menace majeure pour lâhumanitĂ© ? Le PDG dâAnthropic, Dario Amodei, tire la sonnette dâalarme dans un essai remarquĂ© sur les risques dâune superintelligence mal maĂźtrisĂ©e. Une superintelligence aux consĂ©quences potentiellement dĂ©vastatricesDario Amodei, patron de Anthropic et crĂ©ateur du chatbot Claude, publie un long essai qui fait lâeffet dâun signal dâalarme. Il y dĂ©crit lâarrivĂ©e possible, Ă plus ou moins court terme, dâune superintelligence artificielle capable dâĂ©galer, voire de dĂ©passer, les meilleurs experts humains dans tous les domaines clĂ©s, de la mĂ©decine Ă la physique en passant par les mathĂ©matiques. Selon lui, lâhumanitĂ© sâapprĂȘte Ă manier un pouvoir presque inimaginable, sans certitude que ses structures politiques, sociales et technologiques soient suffisamment mĂ»res pour en garder le contrĂŽle. CybercriminalitĂ©, armes biologiques et rivalitĂ©s gĂ©opolitiquesParmi les risques majeurs Ă©voquĂ©s figurent lâexplosion de la cybercriminalitĂ© et la possibilitĂ© de concevoir et de diffuser plus facilement des armes biologiques ou chimiques. LâIA pourrait aussi devenir un atout militaire dĂ©cisif, offrant Ă certains pays des capacitĂ©s offensives Ă©crasantes. Dario Amodei pointe notamment la Chine en toile de fond et rappelle sâĂȘtre opposĂ© par le passĂ© Ă lâexportation de cartes graphiques Nvidia trĂšs avancĂ©es vers ce pays, par crainte dâun dĂ©sĂ©quilibre stratĂ©gique. Un choc Ă©conomique et social sans prĂ©cĂ©dentLe dirigeant dâAnthropic alerte Ă©galement sur lâimpact de lâIA sur lâemploi. Selon lui, jusquâĂ 50 % des postes de cadres dĂ©butants pourraient disparaĂźtre dâici cinq ans. Une perspective encore dĂ©battue, mais de plus en plus prĂ©sente dans les analyses Ă©conomiques. Autre sujet dâinquiĂ©tude : la concentration extrĂȘme des richesses gĂ©nĂ©rĂ©es par lâIA. Elle pourrait accentuer les fractures gĂ©ographiques et Ă©conomiques, au point de transformer la Silicon Valley en une sorte dâĂ©conomie parallĂšle, dĂ©connectĂ©e du reste du monde. Des risques connus, partagĂ©s par dâautres figures de lâIADario Amodei nâest pas seul Ă tirer la sonnette dâalarme. Ses positions rejoignent celles de Geoffrey Hinton, Joshua Bengio ou encore Elon Musk, qui alertent depuis plusieurs annĂ©es sur les dangers de lâintelligence artificielle. Ces risques se rĂ©partissent en trois grandes catĂ©gories : les impacts Ă©conomiques et sociĂ©taux (emploi, dĂ©sinformation, dĂ©mocratie), les usages malveillants comparables Ă ceux du nuclĂ©aire, et enfin le scĂ©nario plus spĂ©culatif dâune perte de contrĂŽle totale des systĂšmes, popularisĂ© par la science-fiction. RĂ©glementation, garde-fous et bouton rougePour Ă©viter le pire, Dario Amodei avance plusieurs pistes. Il plaide pour une rĂ©glementation renforcĂ©e, avec des Ă©valuations strictes des systĂšmes dâIA, comparables Ă celles imposĂ©es aux avions ou aux mĂ©dicaments. Il recommande aussi un dĂ©ploiement progressif des outils les plus puissants et lâinstallation de dispositifs de sĂ©curitĂ© matĂ©riels, de vĂ©ritables « kill switch », capables dâarrĂȘter une IA en cas de dĂ©rive. Enfin, il insiste sur lâimportance de la recherche en alignement et en contrĂŽle des modĂšles, un domaine quâil prĂ©sente comme central dans les travaux menĂ©s par Anthropic. Un cri dâalarme de plus, mais cette fois Ă©mis de lâintĂ©rieur mĂȘme du systĂšme, dans un contexte oĂč la course Ă lâIA sâaccĂ©lĂšre dangereusement. HĂ©bergĂ© par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
