đâđš Vance, vice-prĂ©sident, rejette la rĂ©glementation sur lâIA au Sommet de Paris
âElon Musk a mentionnĂ© Ă plusieurs reprises le risque que l'IA surpasse l'intelligence humaine, entraĂźnant des scĂ©narios oĂč l'IA pourrait ne pas s'aligner sur les valeurs ou les intĂ©rĂȘts humainsâ.
đâđš Vance, vice-prĂ©sident, rejette la rĂ©glementation sur lâIA au Sommet de Paris
Par Mike Whitney, le 14 février 2025
De plus en plus de gens commencent Ă rĂ©aliser que l'intelligence artificielle est une technologie Ă haut risque qui pourrait conduire Ă l'extermination de l'espĂšce. Cela peut a priori sembler excessif, mais si vous suivez de prĂšs les dĂ©veloppements de l'IA, vous verrez que c'est une Ă©valuation correcte. L'IA est une technologie potentiellement lĂ©tale qui peut soit ĂȘtre utilisĂ©e pour le bien de l'humanitĂ©, soit ouvrir la voie Ă une mort et une destruction inimaginables. Voici un extrait d'un article de Scientific American :
âUne enquĂȘte menĂ©e en 2023 auprĂšs d'experts en IA a rĂ©vĂ©lĂ© que 36 % d'entre eux craignent que le dĂ©veloppement de l'IA n'entraĂźne une âcatastrophe nuclĂ©aireâ. PrĂšs de 28 000 personnes ont signĂ© une lettre ouverte Ă©crite par le Future of Life Institute, dont Steve Wozniak, Elon Musk, les PDG de plusieurs entreprises d'IA et de nombreux autres technologues de premier plan, appelant Ă suspendre pendant six mois ou Ă interdire le dĂ©veloppement de nouvelles IA avancĂ©es...
Pourquoi sommes-nous tous si inquiets ? En bref : parce que le dĂ©veloppement de l'IA va beaucoup trop viteâ. Hereâs Why AI May Be Extremely DangerousâWhether Itâs Conscious or Not, Scientific American.
Elon Musk a utilisĂ© sa tribune sur X pour amplifier ses prĂ©occupations concernant l'IA et souligner la nĂ©cessitĂ© de faire preuve de prudence pour minimiser les risques. Malheureusement, les prĂ©occupations de Musk sont restĂ©es lettre morte pour l'administration Trump, qui considĂšre l'IA comme l'arme qu'il lui faut pour maintenir la position dominante de l'AmĂ©rique dans l'ordre mondial. Le conflit qui se prĂ©pare entre Trump et Musk sur cette question clĂ© n'a pas encore Ă©clatĂ© au grand jour, mais nous pouvons ĂȘtre raisonnablement certains qu'il aura lieu dans un avenir proche. Si l'on considĂšre, par exemple, le discours alarmant du vice-prĂ©sident J. D. Vance lors du Sommet de l'IA en France cette semaine, dans il a catĂ©goriquement rejetĂ© les appels Ă une rĂ©glementation prudente ou Ă une surveillance gouvernementale, qualifiant ceux qui prennent ces prĂ©occupations au sĂ©rieux de âtrop timorĂ©s et trop rĂ©fractaires au risqueâ, alors inutile de se demander quelle sera l'approche de son administration. En fait, Vance a rĂ©sumĂ© la situation pour son auditoire en une phrase choquante : âL'avenir de l'IA ne se jouera pas en se lamentant sur la sĂ©curitĂ©âŠâ
En d'autres termes, prendre des mesures raisonnables pour Ă©viter une extinction massive revient Ă âse lamenterâ ?
Naturellement, cette vision des choses ne nous convient pas. Et comme on l'a déjà signalé, plus de 28 000 personnes ont déjà signé une lettre demandant un moratoire de six mois sur le développement de l'IA avancée. Faut-il en déduire que ces 28 000 personnes, qui ont toutes plus d'expertise en matiÚre d'intelligence artificielle que Vance, sont simplement des alarmistes dont les opinions ne reposent sur aucune connaissance approfondie du sujet et de la menace qu'il représente pour l'humanité ?
Et quelles sont exactement ces menaces ? Peuvent-elles ĂȘtre rĂ©sumĂ©es ? Voici d'autres informations provenant de Scientific American :
âLes algorithmes d'intelligence artificielle atteindront bientĂŽt un point d'auto-amĂ©lioration rapide qui menace notre capacitĂ© Ă les contrĂŽler, et prĂ©sente un risque potentiel majeur pour l'humanitĂ©... Une fois que l'IA aura pu s'amĂ©liorer, ce qui ne devrait pas prendre plus de quelques annĂ©es, voire mĂȘme dĂ©jĂ ĂȘtre le cas, nous n'aurons aucun moyen de savoir ce qu'elle fera ou comment la contrĂŽler. En effet, une IA superintelligente [...] sera capable de manipuler les programmeurs et tout autre humain pour arriver Ă ses fins ; elle aura Ă©galement la capacitĂ© d'agir dans le monde virtuel grĂące Ă ses connexions Ă©lectroniques, et d'agir dans le monde physique grĂące Ă des structures robotiquesâŠâ Hereâs Why AI May Be Extremely DangerousâWhether Itâs Conscious or Not, Scientific American.
Les prĂ©occupations de Musk sont encore plus explicites. Voici un bref rĂ©sumĂ© fourni sur sa propre entitĂ© IA appelĂ©e Grok : (En rĂ©ponse Ă la question : âQu'est-ce qui inquiĂšte le plus Musk Ă propos de l'IA ?â)
âOn peut s'inquiĂ©ter sĂ©rieusement de la maniĂšre dont l'IA, en particulier les formes les plus puissantes comme l'IAG (Intelligence Artificielle GĂ©nĂ©rale) devrait ĂȘtre dĂ©veloppĂ©e et contrĂŽlĂ©e. Musk a exprimĂ© sa mĂ©fiance envers la direction d'OpenAI, en particulier envers Sam Altman, quant Ă la gestion de cette technologie. Il a indiquĂ© qu'il prĂ©fĂ©rait qu'OpenAI revienne Ă ses racines axĂ©es sur la sĂ©curitĂ© et l'open source, ce qui, selon lui, serait plus conforme Ă l'intĂ©rĂȘt public plutĂŽt qu'aux motivations purement lucratives des entreprises...
Un danger existentiel pour l'humanité
âMusk a averti que l'IA pourrait soit Ă©liminer, soit limiter la croissance de l'humanitĂ©, soulignant le risque que l'IA devienne âbien plus intelligente que les humainsâ et conduise potentiellement Ă des scĂ©narios oĂč l'IA pourrait dĂ©cider de se dĂ©barrasser de l'humanitĂ© ou de la placer sous un contrĂŽle strict. Musk compare cette prĂ©occupation aux dangers de la physique nuclĂ©aire, oĂč l'Ă©nergie peut ĂȘtre utilisĂ©e Ă des fins bĂ©nĂ©fiques ou catastrophiques..
âElon Musk a plaidĂ© en faveur d'une rĂ©glementation gouvernementale de l'IA, exprimant son inquiĂ©tude face aux progrĂšs de la technologie en l'absence de cadres d'application adĂ©quats. Il craint que l'IA ne mĂšne Ă la âdestruction de la civilisationâ si elle n'est pas correctement gĂ©rĂ©e, proposant la crĂ©ation d'un âcomitĂ© d'expertsâ chargĂ© de superviser le dĂ©veloppement de l'IA. (source : rĂ©sultats de recherche sur les sites cnn.com, foxbusiness.com et reuters.com).
Le potentiel de l'IA Ă surpasser l'intelligence humaine
âIl a mentionnĂ© Ă plusieurs reprises le risque que l'IA surpasse l'intelligence humaine, ce qui conduirait Ă des scĂ©narios oĂč l'IA pourrait ne pas s'aligner sur les valeurs ou les intĂ©rĂȘts humains. Musk lâa citĂ©e comme Ă©tant l'un des plus grands risques pour la civilisation, le comparant Ă l'invocation d'un dĂ©mon...
âMusk a Ă©galement exprimĂ© ses inquiĂ©tudes quant Ă l'utilisation de l'IA pour la prolifĂ©ration de systĂšmes d'armes autonomes, susceptibles d'entraĂźner une escalade involontaire des conflits.
Sécurité et éthique
âMusk plaide pour un dĂ©veloppement prudent de l'IA, suggĂ©rant que des protocoles de sĂ©curitĂ© soient Ă©tablis avant de passer Ă des systĂšmes d'IA plus puissants. Il a appelĂ© Ă un cadre rĂ©glementaire similaire Ă ceux de l'aviation ou des produits pharmaceutiques pour garantir une utilisation sĂ»re de l'IAâ. (Grok)
Les préoccupations de Musk, qui découlent de sa vaste expérience technologique, sont clairement en conflit avec celles de JD Vance et de son administration, qui considÚrent que la réglementation est une forme d'étranglement bureaucratique qui étouffe l'innovation. Voici une partie de ce que Vance a déclaré lors du Sommet de l'IA à Paris mardi :
âLorsque des confĂ©rences comme celle-ci se rĂ©unissent pour discuter d'une technologie de pointe, il me semble que notre rĂ©ponse se caractĂ©rise par une trop grande retenue et une grande rĂ©ticence Ă prendre des risques. Mais je n'ai jamais Ă©tĂ© confrontĂ©, dans le domaine technologique, Ă une avancĂ©e qui nous ait poussĂ©s aussi clairement Ă rĂ©agir de maniĂšre diamĂ©tralement opposĂ©e. Notre administration, l'administration Trump, estime que l'IA aura d'innombrables applications rĂ©volutionnaires... Et restreindre son dĂ©veloppement aujourd'hui ne signifierait pas seulement avantager injustement les acteurs du secteur, mais aussi paralyser l'une des technologies les plus prometteuses que nous ayons vues depuis des gĂ©nĂ©rations.
âCette administration veillera Ă ce que la technologie amĂ©ricaine d'IA continue d'ĂȘtre la rĂ©fĂ©rence mondiale, et nous sommes le partenaire de choix pour nos partenaires Ă©trangers et certainement pour les entreprises qui dĂ©veloppent leur propre utilisation de l'IA. DeuxiĂšmement, nous pensons qu'une rĂ©glementation excessive du secteur de l'IA pourrait nuire Ă une industrie en pleine mutation au moment mĂȘme oĂč elle prend son essor, et nous mettrons tout en Ćuvre pour encourager des politiques d'IA favorables Ă la croissance. Et j'aime ce vent de dĂ©rĂ©glementation qui souffle sur de nombreuses interventions de cette confĂ©rence. TroisiĂšmement, nous sommes convaincus que l'IA doit rester Ă l'abri de tout parti pris idĂ©ologique et que l'IA amĂ©ricaine ne sera pas dĂ©tournĂ©e Ă des fins de censure autoritaire. [...]
âLes Ătats-Unis d'AmĂ©rique sont le leader de l'IA, et notre administration prĂ©voit que cela ne change pas. Les Ătats-Unis possĂšdent tous les composants nĂ©cessaires Ă l'IA, y compris la conception de semi-conducteurs avancĂ©s, les algorithmes de pointe et, bien sĂ»r, les applications Ă©volutives. Et pour prĂ©server l'avantage des Ătats-Unis, l'administration Trump veillera Ă ce que les systĂšmes d'IA les plus puissants soient construits aux Ătats-Unis avec des puces conçues et fabriquĂ©es aux Ătats-Unis. (Les Ătats-Unis doivent se servir de l'IA parce que l'IA fournit les moyens de dominer).
âL'AmĂ©rique souhaite s'associer Ă vous tous, et se lancer dans la rĂ©volution de l'IA avec un esprit d'ouverture et de collaboration. Mais pour instaurer ce climat de confiance, nous avons besoin de cadres rĂ©glementaires internationaux qui favorisent la crĂ©ation de technologies d'IA plutĂŽt que de la freiner. Et nous avons besoin de nos amis europĂ©ens en particulier pour envisager ce nouveau dĂ©fi avec optimisme plutĂŽt qu'avec apprĂ©hension. (Note : âAu diable la prudence, en avant touteâ)
âAvec le rĂ©cent dĂ©cret prĂ©sidentiel sur l'IA, nous sommes en train d'Ă©laborer un plan d'action en matiĂšre d'IA qui Ă©vite une rĂ©glementation excessivement prudente tout en veillant Ă ce que tous les AmĂ©ricains bĂ©nĂ©ficient de la technologie et de son potentiel de transformation...
Préoccupations concernant les réglementations internationales
âLes innovateurs amĂ©ricains de tous horizons savent dĂ©jĂ ce que c'est que de faire face Ă des rĂšgles internationales contraignantes...
âMesdames et Messieurs... L'avenir de l'IA ne se jouera pas en se lamentant sur la sĂ©curitĂ©âŠ
âEn ce moment mĂȘme, nous sommes confrontĂ©s Ă la perspective extraordinaire d'une nouvelle rĂ©volution industrielle, comparable Ă l'invention de la machine Ă vapeur ou de l'acier Bessemer, mais elle ne se produira jamais si une surrĂ©glementation dissuade les innovateurs de prendre les risques nĂ©cessaires pour faire avancer les chosesâŠâ Transcription du Discours du vice-prĂ©sident JD Vance au Paris AI Summit 2025, Singju Post
L'intĂ©gralitĂ© de la prĂ©sentation de Vance n'Ă©tait guĂšre plus qu'une harangue anti-rĂ©glementation visant Ă dĂ©nigrer quiconque ne souscrit pas Ă sa philosophie âAu diable la prudence, en avant touteâ. Ce discours montre que l'Ă©quipe Trump estime que quiconque exprime le moindre soutien Ă une supervision modeste (de cette technologie potentiellement lĂ©tale) n'est qu'un doux rĂȘveur cherchant Ă bloquer les perspectives d'avenir. Mais ce qui est vraiment surprenant dans l'analyse de Vance, c'est qu'elle semble ĂȘtre Ă l'opposĂ© de celle de Musk. Ce dernier n'a pas exprimĂ© de telles objections Ă la rĂ©glementation ou Ă la surveillance, bien au contraire. Comme on l'a dĂ©jĂ dit, Musk est convaincu qu'il faut parvenir Ă un consensus international sur la maniĂšre de rĂ©glementer l'IA pour Ă©viter que les choses ne dĂ©gĂ©nĂšrent.
Ă noter qu'Elon Musk a fait la semaine derniĂšre une offre de 97,4 milliards de dollars pour racheter OpenAI Ă son propriĂ©taire actuel, Sam Altman, en dĂ©clarant que ce dernier s'est Ă©cartĂ© de la mission initiale du systĂšme, qui doit rester un logiciel open source Ă but non lucratif. Ă l'heure actuelle, OpenAI est une âentreprise Ă code source fermĂ© et Ă but lucratif, contrĂŽlĂ©e de facto par Microsoftâ, ce qui va Ă l'encontre de la vision de Musk d'un outil d'apprentissage transparent (et communautaire) qui pourrait ĂȘtre utilisĂ© au profit de l'humanitĂ©. L'offre de prĂšs de 100 milliards de dollars souligne l'importance que Musk accorde au dĂ©veloppement de l'IA compte tenu des risques qu'elle reprĂ©sente pour l'humanitĂ©. En d'autres termes, il veut racheter OpenAI parce qu'il ne considĂšre pas son propriĂ©taire actuel comme Ă©tant âdigne de confianceâ.
Elon Musk a déclaré à Tucker Carlson :
âJe ne fais pas confiance Ă Sam Altman, et je ne pense pas que nous voulions que l'IA la plus puissante au monde soit contrĂŽlĂ©e par quelqu'un qui n'est pas digne de confianceâ.
Il faut également noter qu'un nombre croissant d'experts fuient OpenAI, se plaignant que l'entreprise ne prend pas de mesures pour répondre à leurs préoccupations en matiÚre de sécurité. Parmi eux, Daniel Kokotajlo, William Saunders, Ilya Sutskever, Jan Leike, Gretchen Krueger, Leopold Aschenbrenner, Pavel Izmailov, Cullen O'Keefe, Miles Brundage et Rosie Campbell.
Pourquoi tant de professionnels grassement payés fuient-ils OpenAI tout en mettant en garde contre les risques en matiÚre de sécurité ?
Parce que, comme l'a déclaré candidement l'ancien chercheur en IA Steve Adler :
âLes laboratoires OpenAI prennent un pari trĂšs risquĂ© avec l'humanitĂ© dans la course Ă l'AGIâ.
Tout est dit. Ces gens estiment simplement qu'il est immoral pour eux de participer à un projet qui menace l'espÚce humaine. Voici un complément d'information de la BBC :
âLe Royaume-Uni et les Ătats-Unis n'ont pas signĂ© d'accord international sur l'intelligence artificielle (IA) lors du sommet mondial de Paris. La dĂ©claration, signĂ©e par des dizaines de pays dont la France, la Chine et l'Inde, s'engage Ă adopter une approche âtransparenteâ, âinclusiveâ et âĂ©thiqueâ du dĂ©veloppement de cette technologie...
âLa dĂ©claration signĂ©e par 60 pays Ă©nonce l'ambition de rĂ©duire la âfracture numĂ©riqueâ en favorisant l'accessibilitĂ© de l'IA et en veillant Ă ce que le dĂ©veloppement de cette technologie soit âtransparentâ, âsĂ»râ, âsĂ©curisĂ©â et âfiableâ.
âLe vice-prĂ©sident amĂ©ricain, JD Vance, a dĂ©clarĂ© aux dĂ©lĂ©guĂ©s Ă Paris qu'une rĂ©glementation excessive de l'intelligence artificielle (IA) pourrait âtuer une industrie en plein essorâ. Vance a dĂ©clarĂ© aux dirigeants mondiaux que l'IA est âune opportunitĂ© que l'administration Trump ne laissera pas passerâ et a affirmĂ© que âles politiques en faveur du dĂ©veloppement de l'IAâ devraient ĂȘtre prioritaires sur la sĂ©curitĂ©.
âCependant, UKAI, un organisme professionnel reprĂ©sentant les entreprises du secteur dans tout le pays, a dĂ©clarĂ© que c'est la bonne dĂ©cision. âSi l'UKAI reconnaĂźt qu'il est essentiel d'ĂȘtre responsable sur le plan environnemental, nous nous interrogeons sur la maniĂšre de concilier cette responsabilitĂ© avec les besoins croissants du secteur de l'IA en Ă©nergieâ, a dĂ©clarĂ© son directeur gĂ©nĂ©ral, Tim Flagg.
âL'UKAI salue avec prudence le refus du gouvernement de signer cette dĂ©claration, qui indique qu'il explorera les solutions plus pragmatiques que l'UKAI appelle de ses vĆux, tout en prĂ©servant les possibilitĂ©s de travailler en Ă©troite collaboration avec nos partenaires amĂ©ricainsâ, a-t-il ajoutĂ©. UK and US refuse to sign international AI declaration, BBC
Ă en juger par sa page web, l'UKAI semble ĂȘtre un groupe industriel/de lobbying qui a peut-ĂȘtre influencĂ© la dĂ©cision de Vance de rejeter la DĂ©claration de Paris sur l'IA. Voici un extrait de leur page web :
âLâUKAI reprĂ©sente des entreprises de toutes tailles intĂ©ressĂ©es par l'IA, des start-ups aux leaders du secteur, et veille Ă ce que leur voix soit prise en compte dans l'Ă©laboration des politiques. En travaillant en Ă©troite collaboration avec le gouvernement britannique et avec les autoritĂ©s de rĂ©gulation, UKAI veille Ă ce que les politiques en matiĂšre d'IA favorisent l'innovation et le dĂ©veloppement des entreprises sans pour autant entraver le progrĂšs. UKAI fait le lien entre les dĂ©cideurs politiques et la communautĂ© de l'IA, en offrant une plateforme de communication sur la lĂ©gislation, les programmes et les initiatives. UKAI croit au rĂŽle moteur que l'IA peut jouer dans le dĂ©veloppement social et Ă©conomique du Royaume-Uniâ. UKAI
Le groupe industriel britannique aurait-il ainsi influencĂ© la position de l'administration amĂ©ricaine sur la dĂ©claration ; est-ce bien ce qui se passe ? Et si c'est le cas, quel rĂŽle ont alors jouĂ© les gĂ©ants de la technologie de la Silicon Valley ? Nous avons posĂ© cette question Ă Grok : âLes gĂ©ants de la technologie ont-ils poussĂ© JD Vance Ă s'opposer au Sommet de Paris pour l'intelligence artificielle ?â
RĂ©ponse : âL'expĂ©rience de Vance de la Silicon Valley et son financement par des milliardaires de la technologie comme Peter Thiel suggĂšrent qu'il a des liens Ă©troits avec les leaders technologiques. Ces liens pourraient influencer ses perspectives politiques, mais aucun lien direct avec les grandes entreprises technologiques le poussant Ă s'opposer Ă la dĂ©claration sur l'IA n'est explicitement Ă©tabli... Bien que les positions de Vance semblent s'aligner sur les intĂ©rĂȘts des grandes entreprises technologiques pour Ă©viter des rĂ©glementations strictes, les informations disponibles ne confirment pas explicitement que ces entreprises aient directement influencĂ© sa dĂ©cision sur l'IA. Ses actions pourraient ĂȘtre vues comme relevant d'une position politique plus large sur la rĂ©glementation technologique, influencĂ©e par ses convictions politiques, son rĂŽle dans l'administration Trump et ses interactions antĂ©rieures avec l'industrie technologique, plutĂŽt que comme une pression spĂ©cifique des grandes entreprises technologiques. Cependant, compte tenu de ses propos critiques sur la ârĂ©glementation excessiveâ, il est permis de penser que ses opinions sont au moins favorables au point de vue gĂ©nĂ©ral des grandes entreprises technologiques sur les questions rĂ©glementaires. Grok
En bref, rien ne permet encore de vérifier que le rejet par l'administration du Sommet de Paris pour l'IA soit dû aux efforts de lobbying des géants de la Silicon Valley. Mais il est fort probable que l'administration ait au moins consulté ces entreprises avant de prendre sa décision.
Quoi qu'il en soit, le Sommet de Paris pour l'IA a Ă©tĂ© un vĂ©ritable show de relations publiques doublĂ© dâun Ă©chec cuisant en raison du refus choquant de Vance de signer la DĂ©claration. Ne l'oublions pas, la DĂ©claration ne s'accompagne d'aucune rĂ©glementation contraignante ni d'aucune obligation. Il s'agit simplement de l'expression du soutien Ă quelques principes gĂ©nĂ©raux, concoctĂ©s pour rassurer le public. Au lieu de se montrer disposĂ©e Ă collaborer avec d'autres dirigeants mondiaux sur une question de sĂ©curitĂ© internationale, l'administration Trump a dĂ©cidĂ© de faire la sourde oreille tout en exprimant son intention de dĂ©velopper l'IA comme bon lui semble. Le fait est que Trump et ses lieutenants considĂšrent l'IA comme un outil de domination et de prĂ©servation du pouvoir des Ătats-Unis dans l'ordre mondial. Et pour cela, ils ne reculeront devant rien.
https://www.unz.com/mwhitney/v-p-vance-rejects-safe-a-i-at-paris-summit/
Terminator...On souriait sur le scĂ©nario Ă l'Ă©poque de sa sortie puisque l'informatique ne servait encore qu'Ă la gestion des entreprises , au paiement des allocations et que le multimĂ©dia balbutiait dans les labos. Ăa fout la trouille de savoir qu'il existe pourtant des Dr Folamour dans la silicon vallĂ©e et que les militaires sont leur premier client, appuyĂ© dans ce sens par des politicards Ă©cervelĂ©s.
Musk revient dans mon estime. Depuis son adhésion au programme de Trump, je ne voyais en lui qu'un oportuniste cherchant à arrondir sa fortune. Mais il redevient celui qui avait déjà averti à Davos, qu'il considérait le transhumanisme comme une déviance . Harari et Schwab n'ont pas dû apprécier et pourtant, l'histoire continue avec la déclaration de Vance. Tout est lié désormais...il est clair que les anglo-sionistes vont mettre au point le cyber-gouvernement mondial pour réduire la population, asservir et s'enrichir encore plus tout en favorisant la manipulation de l'information...
Je donne 6 mois à Musk avant de démissionner...Et un an à Trump/Vance pour qu'ils déclarent la guerre à la Chine.