
Le mot n'est pas nouveau mais il s'est imposĂ© dans les dĂ©bats tech en 2025 : âDoomerâ. DerriĂšre ce terme, une inquiĂ©tude croissante face aux dĂ©rives possibles de lâintelligence artificielle. Le terme Doomer dĂ©signe celui ou celle qui estime que les technologies numĂ©riques, et en particulier lâintelligence artificielle, reprĂ©sentent une menace majeure pour lâhumanitĂ©. Apparu dĂšs 2010, popularisĂ© en 2025 sur les rĂ©seaux sociaux et dans certains cercles scientifiques, ce courant de pensĂ©e est relayĂ© par des figures influentes de la recherche en IA comme Geoffrey Hinton ou Yoshua Bengio, qui alertent sur lâabsence de garanties solides pour contrĂŽler des systĂšmes de plus en plus puissants. Le mot âdoomâ, qui Ă©voque le destin ou la catastrophe, rĂ©sume bien lâĂ©tat dâesprit de ces âinquietsâ. ScĂ©nario catastropheLes risques pointĂ©s sont nombreux : disparition dâemplois, manipulation de lâinformation, dĂ©stabilisation des sociĂ©tĂ©s, cybercriminalitĂ© ou usages militaires. Les plus alarmistes redoutent mĂȘme une perte de contrĂŽle totale de lâhumain sur la machine, dans des scĂ©narios dignes de Terminator. Ă lâopposĂ©, les bloomers dĂ©fendent une approche plus confiante et pragmatique, convaincus que des garde-fous peuvent ĂȘtre mis en place. Un clivage qui dĂ©passe lâIA et qui sâinvite aussi dans les dĂ©bats sur le climat ou lâavenir du numĂ©rique. Dans cet Ă©pisode, Yoshua Bengio propose une lecture raisonnĂ©e mais rĂ©aliste des risques liĂ©s Ă lâintelligence artificielle. HĂ©bergĂ© par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
