Principaux influenceurs IA 2025 : Vérifiés, Respectés, Suivis

En bref

Un aperçu de dix figures qui façonnent l'avenir de l'intelligence artificielle en 2025 — des laboratoires affinant ses conceptions fondamentales aux décideurs politiques établissant ses garde-fous. Leurs idées, recherches et leadership entraînent de réels changements dans la façon dont l'IA est conçue, partagée et utilisée dans le monde entier.

Top AI Influencers 2025: Vérifiés, Respectés, Suivis

Ce n'est pas une liste de célébrités. Chaque personne ici a un impact réel, une expertise claire et un bilan de direction des discussions au sein de la communauté AI. Leurs opinions comptent car elles proviennent de la construction, de l'orientation et du défi des systèmes qui façonnent notre avenir.

Yann LeCun reste l'une des voix les plus fortes en IA, en particulier dans la recherche fondamentale. Ses commentaires publics vont souvent à l'encontre de l'élan dominant, notamment dans les débats sur les grands modèles de langage. Il plaide pour des systèmes qui apprennent avec beaucoup moins de données et consomment beaucoup moins d'énergie, s'écartant ainsi de l'état d'esprit "plus c'est gros, mieux c'est".

La place de LeCun dans l'histoire est cimentée par l'invention des réseaux de neurones convolutionnels (CNNs), désormais essentiels à la vision par ordinateur. Aujourd'hui, il est un défenseur de premier plan de l'apprentissage auto-supervisé et de l'IA autonome — des machines qui développent une compréhension par l'observation plutôt que par une ingestion de données sans fin.

Il tweet rarement du contenu original maintenant, mais il republie souvent ou renvoie à des essais approfondis sur la recherche en IA et la conception de systèmes.

  • Thèmes principaux : architectures écoénergétiques, apprentissage centré sur les objets, modèles du monde ;
  • Portée de l'audience : plus de 900 000 abonnés ;
  • Dynamique notable : échanges techniques fréquents avec des chercheurs d'OpenAI et de DeepMind ;

Depuis plus de trente ans, son travail a façonné la stratégie AI de Meta, visant des systèmes qui observent et réfléchissent de manière plus proche du raisonnement humain, et pas seulement prédire le mot suivant dans une séquence.

Andrej Karpathy allie des compétences techniques approfondies à la perspective de quelqu'un qui a donné vie à des produits majeurs. Il décompose des idées complexes — de la conception de modèles aux choix d'entraînement et aux obstacles de déploiement — de manière à résonner à la fois avec les chercheurs et les constructeurs pratiques.

Son fil fusionne l'insight technique avec la vision—par exemple, il a récemment proposé que les grands modèles de langage deviennent les éléments de base des logiciels modernes.

  • Héritage : percées précoces dans l'apprentissage profond et la vision par ordinateur, leadership de l'IA chez Tesla ;
  • Portée : plus d'un million de followers ;
  • Engagement : conférences fréquentes et éducation communautaire ;

Après son retour chez OpenAI en 2024, Karpathy s'est concentré sur la facilitation de la gestion des modèles et leur mise à l'échelle sans perdre le contrôle. Il a également travaillé à l'ouverture de plus de ressources pour la communauté des développeurs. Dans ses publications, il relie la réflexion technique approfondie au travail quotidien de la création de logiciels, offrant aux ingénieurs des moyens pratiques de créer des systèmes qui tiennent le coup en utilisation réelle.

Fei-Fei Li a bâti sa réputation en alignant l'IA sur les besoins humains. Elle plaide pour des conceptions qui servent la santé, l'éducation et l'intérêt public autant qu'elles servent les agendas des entreprises ou des gouvernements. Elle a dirigé la création d'ImageNet, un projet qui a redéfini l'apprentissage profond et a laissé l'une des empreintes les plus fortes sur l'IA d'aujourd'hui.

Ses publications se concentrent sur le côté humain de l'IA—les implications éthiques, l'impact sur la santé et l'importance de préserver la dignité humaine.

  • Connu pour : ImageNet, l'Institut d'IA centrée sur l'humain de Stanford ;
  • Public : plus de 500 000 abonnés, conseillant à la fois les décideurs américains et internationaux ;
  • Focus actuel : éthique, accessibilité et inclusion sociale dans les applications d'IA ;

Elle apporte des perspectives de personnes souvent négligées dans le secteur technologique — comme les travailleurs médicaux, les éducateurs et les personnes vivant avec des handicaps — et garde leurs préoccupations en première ligne. Li considère l'IA responsable comme une question d'empathie, de prévoyance et de participation de voix venant de loin en dehors des salles de réunion de Silicon Valley.

Emad Mostaque est une figure déterminante de l'IA générative open-source. Il plaide pour que les modèles et les ensembles de données soient accessibles au-delà de l'emprise des grandes entreprises, influençant une vague de startups à publier des systèmes avec des poids ouverts.

Sur son fil, il partage des mises à jour vivantes sur l'IA générative open source et des invitations à donner un avis public sur le développement.

  • Étape : lancement de Stable Diffusion ;
  • Domaines d'accentuation : transparence des coûts, ouverture de l'infrastructure, principes de sécurité de l'IA;
  • Audience : plus de 250 000 abonnés ;

Mostaque décompose régulièrement les coûts réels et les contraintes de la construction de modèles avancés, offrant un aperçu rare des budgets et des efforts techniques qui animent les outils génératifs. Son insistance sur l'ouverture a modifié les attentes quant à ce que les développeurs et les chercheurs devraient être en mesure d'inspecter et de contrôler.

La recherche de Timnit Gebru sur les biais algorithmiques et la transparence des données a changé la manière dont l'équité en IA est discutée à l'échelle mondiale. Elle examine qui détient le pouvoir dans le développement de l'IA et comment ce pouvoir façonne les résultats.

Elle utilise sa présence pour souligner les problèmes de biais, faisant souvent référence à ses recherches ou aux développements majeurs des politiques sur l'équité dans l'IA.

  • Domaines clés : biais systémique dans les LLM, gouvernance dirigée par la communauté, normes éthiques des données ;
  • Public : plus de 160 000 abonnés ; cité dans des cadres politiques dans le monde entier ;

Elle construit ses arguments sur des preuves claires. Ses études révèlent comment les défauts dans les données d'entraînement peuvent perpétuer des inégalités du monde réel liées à la race, au genre et à la classe. Les législateurs et les régulateurs font maintenant référence à ses recherches lors de l'élaboration des règles, ce qui a fait d'elle une voix critique de premier plan dans la conversation.

Chris Olah a démystifié certaines des parties les plus complexes des réseaux de neurones. Ses explications visuelles et narratives sur la façon dont les modèles traitent l'information sont devenues du matériel d'enseignement dans les universités et des points de référence pour les chercheurs en sécurité de l'IA.

Il publie fréquemment des mises à jour sur l'interprétabilité - des travaux récents sur l'open-sourcing de l'analyse des circuits de modèles ont attiré l'attention dans les milieux de recherche sur la sécurité.

  • Spécialité : outils d'interprétabilité, visualisation des chemins de décision ;
  • Public : plus de 150 000 abonnés ;
  • Travaux récents : alignement des modèles, protocoles de sécurité, IA constitutionnelle ;

En rendant les mécanismes internes de l'IA visibles, Olah a fait passer l'interprétabilité d'une curiosité académique à une exigence centrale pour la confiance et la sécurité. Son influence façonne la manière dont les laboratoires et les décideurs réfléchissent à la surveillance et à l'orientation du comportement des modèles.

Sara Hooker travaille à rendre l'apprentissage automatique plus efficace et plus accessible. Elle met en lumière des chercheurs dans des régions disposant de moins de ressources, dans le but de décentraliser qui peut contribuer à ce domaine.

Ses publications mettent en lumière l'inclusivité dans la recherche en IA—elle a récemment attiré l'attention sur les limites de la régulation basée sur le calcul.

  • Point clé : modèles rares, reproductibilité, recherche en IA inclusive ;
  • Audience : plus de 45 000 abonnés ;

Son travail remet en question la croyance selon laquelle des recherches sérieuses ne peuvent se faire qu'avec une énorme infrastructure. En promouvant des architectures efficaces et la collaboration mondiale, Hooker redéfinit les attentes en matière de performance et de participation dans l'IA.

Ethan Mollick démontre comment les outils d'IA changent la façon dont les gens apprennent et travaillent. Ses expériences avec de grands modèles linguistiques dans les salles de classe et les environnements professionnels offrent des résultats concrets et reproductibles.

Son fil intègre l'IA dans de véritables scénarios de classe et de bureau - explorant comment la conception des invites et les outils de travail évoluent et influencent l'apprentissage.

  • Domaines d'intérêt : LLM appliqués, ingénierie des invites, workflows assistés par l'IA ;
  • Public : plus de 280 000 abonnés ;

Mollick travaille en essayant les outils lui-même, en observant ce qui se passe et en ajustant son approche en cours de route. Cette boucle pratique offre aux éducateurs et aux professionnels un plan pour intégrer l'IA avec un minimum de conjectures.

Dario Amodei dirige l'un des efforts de sécurité en IA les plus surveillés. Le développement de Claude par Anthropic fait partie d'une stratégie plus large visant à rendre l'évolutivité plus sûre sans freiner l'innovation.

Il publie rarement, mais quand il le fait, ses vues suscitent le débat—appelant récemment à dénoncer un récit qu'il a décrit comme déformant la mission axée sur la sécurité d'Anthropic.

  • Focus : IA constitutionnelle, fiabilité du système, alignement à grande échelle ;
  • Public : plus de 70 000 abonnés ; reconnu lors des audiences législatives et des sommets mondiaux ;

Le style mesuré d'Amodei et son insistance sur les mécanismes de contrôle ont fait de son travail un point de référence tant pour l'industrie que pour le gouvernement dans l'établissement des attentes en matière de supervision des modèles.

La carrière de Grady Booch a été construite autour de la conception et de la gestion de systèmes logiciels complexes, ce qui rend ses opinions sur la façon dont l'IA moderne est construite et maintenue particulièrement précieuses. Des décennies passées à concevoir des systèmes conçus pour durer lui permettent de souligner ce que nécessitera l'ingénierie de l'IA durable.

Sa voix combine une perspective de conception système approfondie avec un contexte d'IA - bien que les mises à jour soient moins fréquentes, il apporte une clarté architecturale au débat sur l'IA.

Célèbre pour avoir créé UML (Langage de Modélisation Unifié), Booch applique une réflexion architecturale rigoureuse aux questions de déploiement et de fiabilité de l'IA.

  • Thèmes principaux : conception système, durabilité, éthique en ingénierie ;
  • Audience : plus de 160 000 abonnés provenant des communautés de l'IA et de l'ingénierie traditionnelle ;

Il avertit que se déplacer trop rapidement risque de saper les bases déjà posées. Pour lui, des avancées durables proviennent d'un design patient, de tests rigoureux et d'un engagement envers des pratiques d'ingénierie solides.

IN-5.31%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)