/2026/04/10/69d96ce3f1c44288451068.jpg?w=150&resize=150,150&ssl=1)
L’agence Moody’s maintient la note souveraine de la France à Aa3 avec une perspective « négative » – franceinfo
10 avril 2026
Prostitution : Airbnb, Booking… L'essor des locations détournés
10 avril 2026Analyse : Notre équipe propose une synthèse des points importants.
Un résumé rapide de « Les problèmes de confiance de Sam Altman chez OpenAI » selon notre rédaction.
Résumé des éléments principaux
Écoutez et abonnez-vous : Pomme | Spotify | Où que vous écoutiez
S’inscrire pour notre newsletter quotidienne pour recevoir le meilleur du New Yorker dans votre boîte de réception.
Fin février, le PDG d’OpenAI, Sam Altman, a fait la une des journaux en concluant rapidement un accord avec le Pentagone pour que son entreprise remplace Anthropic, qui avait hésité à la tentative de l’administration Trump d’utiliser sa technologie d’IA pour alimenter des armes autonomes et contribuer à la surveillance de masse. Quelques jours plus tôt, Altman avait publiquement soutenu la position d’Anthropic dans le conflit. L’accession au pouvoir d’Altman et la création d’OpenAI reposaient sur la nécessité de placer la sécurité au-dessus des autres préoccupations dans le avancée de l’intelligence artificielle générale. Pourquoi a-t-il changé de position sur une question aussi fondamentale ? Le New-Yorkais les écrivains Ronan Farrow et Andrew Marantz se sont entretenus à plusieurs reprises avec Altman et ont interviewé plus d’une centaine de personnes pendant leur enquête à la tête de l’une des entreprises les plus puissantes au monde, en comparant Altman à J. Robert Oppenheimer. Même s’il n’y a pas de preuve irréfutable entre les mains d’Altman, les auteurs estiment que les allégations persistantes concernant sa conduite soulignent le danger de lui confier un pouvoir aussi vaste sur l’avenir.
Source : www.newyorker.com
Conclusion : Les faits continueront d’être analysés pour informer nos lecteurs.

9999999