🎤 Interview – Hugging Face, poids-lourd de l'IA open source (Clément Delangue, Hugging Face)  [REDIF]
Maison Connectée25 août 202527:54

🎤 Interview – Hugging Face, poids-lourd de l'IA open source (Clément Delangue, Hugging Face) [REDIF]

[Redif] Retour sur Hugging Face, la startup franco-américaine, valorisée à plusieurs milliards de dollars, devenue un acteur incontournable pour les développeurs et entreprises souhaitant créer leurs propres modèles d'IA.

Retour sur Hugging Face, la startup franco-américaine, valorisée à plusieurs milliards de dollars, devenue un acteur incontournable pour les développeurs et entreprises souhaitant créer leurs propres modèles d'IA.

Rediffusion du 19 mars 2025

Clément Delangue, cofondateur et CEO de Hugging Face

Peux-tu nous rappeler ce qu’est exactement Hugging Face ?

Clément Delangue : Hugging Face est la plateforme la plus utilisée par les AI Builders, ces chercheurs et ingénieurs qui conçoivent des modèles d'intelligence artificielle. Nous comptons près de 10 millions d'utilisateurs et plus de 400 000 applications développées sur notre plateforme. Concrètement, nous mettons à disposition des modèles open source, des jeux de données et des outils permettant aux entreprises et aux développeurs de construire leurs propres solutions d'IA, sans dépendre d'acteurs fermés comme OpenAI. Aujourd’hui, lorsque Meta, Mistral ou Deep Seek publient un nouveau LLM, ils le font sur Hugging Face.

Pourquoi miser sur l’intelligence artificielle en open source ?

L'open source permet à chacun de contribuer, d'innover et de bénéficier des avancées technologiques. C’est l’arme des challengers face aux leaders, comme OpenAI, qui exploitent de modèles fermés. La Chine, par exemple, mise beaucoup sur l'open source pour rattraper son retard en IA. De plus, d'un point de vue éthique, il est essentiel que cette technologie ne soit pas contrôlée par une poignée d'acteurs privés. Si seuls OpenAI et Microsoft détenaient les clés de l'IA, ce serait un risque majeur.

Quelles sont les prochaines évolutions de l'IA ?

L'avenir de l'IA passe par des modèles plus petits, plus efficaces et mieux adaptés aux besoins spécifiques des entreprises. Plutôt qu'une intelligence artificielle générale et centralisée, nous croyons à un modèle décentralisé, où chaque organisation pourra développer sa propre IA sur mesure. Cela permettra de réduire la consommation énergétique et de rendre l'IA accessible à tous, sans dépendre d'un petit nombre d'acteurs privés.

Hugging Face est souvent citée comme un exemple de réussite française mais tu vis aux Etats-Unis. Quel est le lien avec la France aujourd’hui ?

Nous sommes une entreprise à la fois française et internationale. Les trois cofondateurs sont français et notre plus grand bureau se trouve à Paris. Nous avons d'ailleurs récemment ouvert un nouvel espace Passage du Caire. Hugging Face est née à Station F, avec une philosophie très française d'ouverture et de collaboration. Je vis personnellement à Miami car c’est devenu un pôle important en matière de tech et évidemment aussi parce que la vie y agréable.

🎧 Ecouter sur votre app de podcast



: numérique. est vraiment la plateforme de référence, c'est à dire que quand vous avez un DeepSync qui va lancer un modèle, le font sur Hugging Face, quand vous avez un Mistral qui va lancer un modèle, il le font sur Hugging Face. Donc on a la chance d'avoir cette position très centrale. Bonjour Clément Dolang. Bonjour. Merci d'être dans le numérique en ligne depuis Miami en Floride où vous habitez. Vous êtes donc cofondateur et dirigeant de la startup Hugging Face, la fameuse startup Hugging Face franco-américaine valorisée à plusieurs milliards de dollars, une pépite, comme on dit souvent citée d'ailleurs par les responsables politiques français. Alors très connue dans le monde de la tech, pas forcément auprès du grand public. Est-ce que vous pouvez nous rappeler un petit peu exactement ce que c'est qu'Hugging Face ? Oui, ben Hugging Face, a eu la chance de devenir la plateforme la plus utilisée par ce qu'on appelle les AI Builders. c'est à dire toutes les personnes qui créent de l'intelligence artificielle. a bientôt 10 millions d'utilisateurs qui viennent sur Hugging Face pour trouver des modèles. Donc, par exemple, si vous connaissez des modèles de Mistral, les modèles de de Meta, Lama, les modèles de DeepSec pour trouver des jeux de données, des datasets et pour construire des applications. Donc, on est devenu une sorte d'app store de l'intelligence artificielle avec plus de 400 000 applications qui ont été créées sur la plateforme sur Hugging Face. Donc, vous ne créez pas vous-même de modèles d'intelligence artificielle, mais vous mettez à disposition des modèles qui sont open source. Et donc n'importe qui peut les utiliser et même les adapter à ses propres besoins. C'est ça, c'est un peu comme une bibliothèque, on va dire, la version intelligence artificielle de la bibliothèque où n'importe quelle entreprise, n'importe quelle organisation, n'importe quelle personne peut venir sur la plateforme, trouver un modèle open source, donc gratuit, et construire leur propre application d'intelligence artificielle. Nous, notre vision, c'est qu'à terme, toutes les entreprises, toutes les organisations vont être capables de créer de l'intelligence artificielle elle-même, qu'elles ne pas devoir dépendre d'un OpenAI, d'un Anthropik. Et du coup, on a construit la plateforme qui permet de faire ça. Très bien. justement, on en parlait. C'est super intéressant, cette vision très open source de l'IA. Ça détermine beaucoup de choses. C'est très à la mode aussi, l'open source. Mais avant ça, alors c'est rigolo parce que c'est une entreprise pas banale. Ginkface, disais moitié, enfin je sais pas, vous êtes français, vous êtes américain ? On se définit comme franco-américain, même plus largement international parce que notre communauté est partout dans le monde. Mais on a un très fort attachement français parce que les trois cofondateurs de Ginkface sont français, que la France est plus gros bureau. Donc à Paris, on vient d'ouvrir là en décembre un nouveau bureau. Passage du Caire, la majorité de nos équipes sont en France. l'entreprise est née à Station F, je crois. C'est ça, on a commencé à Station F. Et en termes de philosophie d'entreprise, pense qu'on a quand même un gros héritage français avec cette volonté de créer un modèle très ouvert, très collaboratif, gratuit et qui a vocation à vraiment démocratiser la technologie. Et puis, sur le plan de l'organisation, c'est assez original parce que vous êtes en réalité éclaté entre plusieurs pays. C'est ça la France, les États-Unis, Miami, Miami qui est devenu ces dernières années une espèce de haut lieu de la technologie. Oui, c'est ça. Miami est vraiment devenu un centre, un point de passage important pour la plupart des fondateurs, investisseurs américains et aussi internationaux. Plus en plus aussi de manière assez intéressante, un centre aussi politique parce qu'on a Mar-a-Lago avec qui a un peu le QG de Trump à une heure de distance de Miami. Donc, c'est devenu un endroit central. Et puis qui est vraiment bien pour les fondateurs français comme moi parce que c'est sur la côte Est des États-Unis. Donc, on peut très facilement revenir en France. On a une time zone qui est pas loin que la Californie. On a pas mal d'entrepreneurs français ici. pense qu'il y a une entreprise comme Soots qui est basée ici, Benjamin Zénou. c'est un bon endroit, Miami, être pour les entrepreneurs français aux États-Unis si on en a qui nous écoutent aujourd'hui. Et puis accessoirement, la qualité de la vie est pas trop mal non plus. C'est super. Il fait beau toute l'année. C'est la plage, c'est un cadre de vie très plaisant. Alors malgré tout, ça ne vous empêche pas de bosser, visiblement. Et je le disais, Hanging Face a connu une croissance vraiment phénoménale. Vous en êtes où aujourd'hui ? Vous vous situez comment ? Vous faites partie des poids lourds vraiment de la tech en matière d'IA ? Parce qu'en termes d'utilisation, on est vraiment central. Aujourd'hui, on est la plateforme qui a le plus d'utilisation chez les AI Builders. c'est vraiment la plateforme de référence, c'est-à-dire que quand vous avez un DeepSync qui va lancer un modèle, ils le font sur Hugging Face. Quand vous avez un Mistral qui va lancer un modèle, ils le font sur Hugging Face. Donc on a la chance d'avoir cette position très centrale dans la communauté qui est aidée par le fait qu'on est en fait très collaboratif avec tout le monde. Nous, notre but, n'est vraiment pas de uniquement créer une plateforme, une entreprise, mais vraiment de donner le maximum de capacité à toutes les entreprises. dans le monde et de rendre les autres entreprises successives et de faire marcher. Clément, qui sont vos utilisateurs, vos clients ? C'est quoi ? des particuliers, des entreprises ? Du coup, c'est 10 millions. C'est vraiment des chercheurs en intelligence artificielle, des ce qu'on appelle ML engineers, des ingénieurs en intelligence artificielle, jusqu'à des ingénieurs en informatique plus classiques. Ça, c'est nos utilisateurs. du coup, qui nous paye, nos consommateurs, c'est les entreprises qui emploient ces AI Builders. Donc aujourd'hui, on a plus de 5000 clients qui nous payent sur un modèle assez classique qu'on appelle freemium, c'est-à-dire que l'essentiel de la plateforme gratuite est open source. Et on a une petite partie qui est payante, notamment quand c'est des grosses entreprises qui l'utilisent. Quand vous avez un Google, un Amazon, un Nvidia, un IBM qui nous utilise, deviennent payants. C'est cette partie payante qui sponsorise en quelque sorte la partie open source et gratuite. On a la chance d'être profitable aujourd'hui, ce qui est très rare pour les startups dans l'intelligence sociale. Souvent, c'est plutôt l'inverse, c'est-à-dire qu'elles dépensent énormément d'argent, elles perdent énormément d'argent. Nous, c'est l'inverse. a pris une approche un peu différente sur cet aspect-là. C'est la start-up bon père de famille. Oui, en quelque sorte. Vous gagnez de l'argent avant de le dépenser. En quelque sorte, oui. En fait, pense que comme on a une plateforme pour la communauté, on a envie d'être vraiment là sur le long terme et de fournir vraiment une sécurité à nos utilisateurs qui ne se disent pas demain, Huggings Face va fermer. Du coup, on prend une approche un peu plus long terme où on se dit voilà comment on construit une plateforme comme ça sur les dix prochaines Mais vous leur offrez les modèles, les data sets qui servent à entraîner les modèles, les données et également du stockage. a du stockage et puis de l'infrastructure pour vraiment faire ce qu'on appelle l'inférence et l'entraînement des modèles d'intelligence artificielle. Et si je suis un utilisateur par exemple, je vais aller faire mon marché, choisir tel ou tel modèle. Et dans ce cas, je fais quoi ? Je le télécharge et je vais le faire fonctionner chez moi sur mon infrastructure ou ça reste chez vous et je vais bénéficier de... Comme tu veux. Nous, ce qu'on fournit, c'est vraiment une plateforme très adaptable en fonction de ton besoin et en fonction de ce que tu préfères. Tu peux même aller plus loin. C'est-à-dire que, par exemple, si tu dis pour le monde numérique, tu as besoin d'une application qui va... T'enlever le son externe pour t'aider par exemple à faire ton montage final de podcast. Tu vas sur l'app store de Gink Face, tu vas trouver une application directement qui va pouvoir te faire ça, même sans faire de code. Donc progressivement, un truc intéressant, c'est qu'on est devenu vraiment un app store même pour les gens qui ne développent pas eux-mêmes. Donc chez nous, s'appelle Spaces. C'est notre app store où vous avez plus de 400 000 applications qui permettent vraiment de faire tout et tout et n'importe quoi. du traitement d'image, de vidéo, d'audio, des démos de biologie, de chimie qui vont vous permettre aussi de faire du chat bot un peu comme chat GPT. a notre version qui s'appelle Hugging Chat, qui est une version ouverte de chat GPT. Donc on est vraiment devenu progressivement une plateforme assez généraliste pour toutes sortes d'utilisateurs. Donc il y vraiment une partie qui est destinée aux professionnels de l'IA, des entreprises ou des professionnels qui sont capables eux-mêmes de mettre en place des outils, des entraînés, etc. Et puis une partie beaucoup plus accessible, en fait, c'est quasiment du grand public. Je vois, y a générateurs de podcasts, kokoro, usines de bande dessinée par intelligence artificielle, etc. Parce qu'en fait, a tellement de gens qui construisent de l'intelligence artificielle qui ensuite passe par notre plateforme pour pour distribuer ça en public. C'est ça vraiment qui fait votre particularité. Donc vous avez beaucoup grossi, vous avez fait beaucoup d'acquisitions aussi des entreprises d'autres boîtes et puis vous innover. Récemment, tu as annoncé sur X que vous aviez lancé un truc. Alors il faut expliquer ce que c'est parce que je ne pas du tout. Donc un manuel de jeu à très grande échelle. Enfin en anglais, c'est Ultra Scale Play Hop. Playbook. C'est quoi ça ? C'est en fait un manuel qui va permettre à n'importe quelle entreprise, n'importe quelle organisation d'entraîner leur propre modèle comme le fait un Mistral, par exemple. Donc vous êtes par exemple une banque, vous êtes un médias, toutes sortes d'entreprises et vous vous dites bon un modèle généraliste comme Mistral c'est bien mais... j'ai un peu mes spécificités, j'ai mes contraintes, j'ai mon domaine qui est un peu spécifique, je vais entraîner mon propre modèle d'intelligence artificielle. Vous pouvez donc suivre ce manuel et faire ça vous-même sur vos propres données. Nous, à terme, ce qu'on pense, c'est que l'intelligence artificielle, ça va être comme le software, comme le logiciel. C'est-à-dire que n'importe qui, de la même manière que tous les développeurs et la plupart des entreprises écrivent leur propre code, leur propre logiciel. on pense que ça va être la même chose sur l'intelligence artificielle et que toutes les entreprises vont être capables d'entraîner leur propre modèle qui va leur permettre de fournir un service optimisé, customisé pour leurs propres utilisateurs. Donc c'est le contraire de ce qu'on voit aujourd'hui finalement avec un Chagy Pity qui est une solution propriétaire qui fonctionne sur des gros data centers qui ne sont pas au sein des entreprises qui les utilisent. qui sont des algos propriétaires, des solutions propriétaires, etc. Vous, êtes à l'antithèse de ce concept-là. Oui, à l'antithèse. Alors, ce concept-là, c'est plus une perception qu'une réalité parce que déjà, sur Hugging Face, on a un nouveau modèle de jeux de données ou applications créées toutes les 10 secondes. Il y a plus d'un million et demi de modèles qui ont été créés sur Hugging Face. Donc les entreprises déjà créent leur propre modèle et tout le monde ne dépend pas d'OpenAI. Donc c'est plus une perception qu'une réalité. Mais on pense que ça va s'intensifier dans les prochains mois, dans les prochaines années où vraiment on aura toutes les entreprises qui vont créer leur propre intelligence artificielle en s'appuyant bien sûr sur des modèles open source parfois comme des mistrales, comme des lamas. Donc on comprend bien pourquoi effectivement tu es un avocat, un défenseur convaincu de l'open source. Et c'est vrai que c'est un discours qu'on entend de plus en plus, qui rentre en résonance avec les discours officiels. Mais on a l'impression que même à des échelles vraiment de pays, d'État, aujourd'hui, l'open source, c'est quasiment là-dessus que l'Europe a officiellement l'intention de s'appuyer pour développer DIA. La Chine aussi, DeepSec est un modèle open source. C'est un peu l'open source, c'est un peu l'arme du challenger et ça l'a toujours été, ça l'a été dans le logiciel. Est-ce que tu penses que ça va donc suivre le même chemin, c'est-à-dire vraiment, c'est ça qui va monter en puissance ? Oui, comme tu le dis, fait, l'open source, c'est un moyen pour les pays ou les organisations challenger de rattraper plus rapidement, parce qu'en fait, en poussant l'open source, vous avez de plus en plus de collaboration. entre les différentes organisations qui construisent au-dessus l'un de l'autre, qui se challenge, qui s'émule et qui partagent fait ce savoir et cet apprentissage et du coup ça permet de développer la technologie plus rapidement. À mon avis, c'est ça qui a permis aux États-Unis de devenir le leader entre 2016 et 2022. Tout était ouvert aux États-Unis et toutes les entreprises, toutes les organisations construisaient au-dessus l'un de l'autre et avaient cette émulation très forte qui faisait que le cycle de progrès était très rapide et a amené à ce leadership américain. Donc je pense que tous les autres pays devraient faire la même chose. La Chine a très bien compris puisque depuis deux, trois ans, c'est ce qu'ils font et ça leur permet de rattraper comme ce qu'on peut voir avec DeepSeek. Et aussi les entreprises, pense, devraient faire la même chose. Les startups, les petites entreprises devraient s'appuyer là-dessus de plus en plus pour réussir à rattraper. Et au-delà de l'aspect un peu utilitaire de l'open source, moi ce que je trouve intéressant et important, c'est l'aspect aussi éthique. Parce qu'en fait, l'intelligence artificielle est une technologie d'infrastructure fondamentale qui, si elle est contrôlée par quelques acteurs, à mon avis, peut être très très dangereuse. Et donc je pense qu'on a vraiment envie, comme le software, qu'elle soit accessible à tous. Et ça, passe par l'open source. Sans open source, la technologie sera uniquement accessible, disponible, maîtrisable par quelques acteurs, peut-être par OpenAI, Microsoft et quelques autres. Ça, serait vraiment un gros risque. Imagine un monde où il n'y aurait qu'une ou deux entreprises qui pourraient faire du logiciel. Ce serait un monde assez dangereux, apparencément un monde lequel on aimerait vivre, je pense. Donc d'un point de politique, c'est important aussi. J'entends bien, mais comment expliquer que même ceux qui faisaient de l'open source avant, typiquement OpenAI, d'où son nom, finalement après s'orientent vers des solutions propriétaires ? Est-ce que ce n'est pas une espèce de fatalité économique ? puis alors, Meta aussi prône beaucoup open source. Mais en réalité, tout n'est pas open source chez Meta. y a maintenant ce qu'on appelle le distinguo entre l'open source et l'open weight. Donc finalement, il y a certains bouts en open source, mais pas tout. Les entreprises qui innovent sont obligées quand même. Est-ce qu'elles ne pas obligées à moment de garder un peu leurs petits secrets ? C'est un gradient, en fait. C'est pas open source ou pas open source. pense que ça navigue un peu d'un extrême à l'autre. et que les entreprises aussi naviguent sur ce gradient. D'ailleurs, voit qu'OpenAI en ce moment est en train de réfléchir à peut-être revenir à un modèle plus open source. pense que Sam Altman il y a quelques semaines a dit qu'il se sentait du mauvais côté de l'histoire en étant moins open source qu'avant. Donc on voit aussi que les entreprises naviguent sur ce gradient. Je pense qu'il faut essayer de pousser. de se diriger de plus en plus vers plus d'ouverture, plus de transparence, en se disant que ce ne jamais 100 % transparent, 100 % ouvert. Mais plus on peut pousser dans cette direction, le mieux c'est, je pense. Je vais te poser une question naïve. On sait que l'intelligence artificielle est aussi de plus en plus utilisée par les cybercriminels. Est-ce que finalement, l'open source n'encourage pas ce phénomène ? Non, parce qu'en fait... pas plus de facilité. Oui, ce qu'on voit un peu quand on fait de la recherche sur le domaine, c'est que ces risques-là ne pas forcément plus présents par l'open source que par des systèmes comme ChadGPT. En fait, c'est plus facile pour un cybercriminel d'utiliser ChadGPT que d'aller utiliser l'open source, qui demande des capacités techniques particulières pour l'utiliser. Malgré les bridages quand même de ChadGPT qui essayent de limiter la case, donc on ne pas... tout faire et tout demander à ChadGPT en cas de cible. Malgré les bridages, parce qu'en fait, vous avez des systèmes comme ce qu'on appelle du jailbreak de dpi qui vous permet en fait de bypasser les limitations qui sont mises par OpenAI. ont aujourd'hui un peu violenté un peu de violer un peu ChadGPT. Voilà, vous avez un volume tellement énorme aujourd'hui sur ChadGPT, malgré les systèmes, ils en placent, c'est toujours possible de passer, passer outre. Donc ça, c'est des risques qui ne pas forcément spécialement présents pour l'open source, mais qui sont présents sur toute l'intelligence artificielle. Et en fait, l'open source permet aux policiers, aux gendarmes qui sont censés limiter ces cas de mieux comprendre et eux-mêmes d'être capables de limiter ces risques-là. Ils permettent de plus de transparence. en fait, on voit que c'est possible de faire ça et de quoi on est capable. de mettre en place des régulations, des limitations, des lois qui rendent ça illégal. Ce qui est illégal en faisant du software, en faisant du logiciel, est illégal en faisant de l'intelligence artificielle. Et ce pas forcément en enlevant la possibilité de le faire qu'on contrôle ça, mais c'est en mettant des lois. Par exemple, aujourd'hui, tout monde peut utiliser un couteau. et on ne se dit pas on va empêcher les gens d'avoir un couteau mais ce qu'on fait c'est qu'on met des lois qui permettent de dire que si on utilise un couteau d'une mauvaise manière, bien là on va avoir des problèmes. Donc c'est un peu la même chose sur l'intelligence artificielle où en fait il faut mettre en place les lois, adapter les lois quand c'est nécessaire pour que cette technologie comme le logiciel ne soit pas utilisée pour de mauvaises raisons et dans des mauvais cas d'usage. Et alors qu'est-ce que tu penses des efforts de réglementation et notamment en Europe qui sont ces différents des États-Unis surtout en ce moment où les États-Unis prônent la déréglementation alors que nous, l'AI Act vient d'entrer en vigueur et donc c'est de la réglementation pour l'IA. Et toi en tant que Français en plus vivant aux États-Unis et faisant de l'IA, comment tu vois ça ? Oui alors aux États-Unis, a beaucoup de diabolisation de l'AI Act. Moi, je ne pas forcément aligné avec de ce que nous on a beaucoup interagi avec. avec les autorités européennes là-dessus. Et on pense que c'est une régulation qui est plutôt modérée, plutôt utile et qui ne pas créer des problèmes énormes. Ça crée pas trop de freins pour les nouveaux entrants, les jeunes, les startups, etc. Non, non, non, parce que c'est assez focalisé sur les cas d'usage finaux. Donc nous, on n'est pas vent debout contre les IACT en Europe. Après, c'est un truc qui est important important à continuer à garder en tête, je pense en Europe, c'est qu'on a envie que tout le monde puisse bénéficier de l'intelligence artificielle et des outils d'intelligence artificielle. Donc, parfois quand tu vois des outils comme TchadGPT qui ont certaines fonctionnalités qui peuvent pas être lancées en Europe, je trouve que c'est dommage. Donc, il faire attention à ne pas créer un qui empêche. les Européens de bénéficier de l'intelligence artificielle. Mais je pense que ça va plutôt dans le bon sens. pense que ce qui a été annoncé pendant l'AI Summit, l'AI Action Summit, il y a quelques semaines dernière ou il a deux semaines, avec pas mal d'investissements sur l'intelligence artificielle, vont dans le bon sens. je suis assez... assez positif et assez enthousiaste sur la place que peut avoir l'Europe et la France dans ce nouveau cycle technologique d'intelligence artificielle. Tu penses qu'on a les moyens aujourd'hui de le faire face, en tout cas de rattraper le retard qu'on semble avoir pris ? Oui, parce qu'en fait, on a vraiment de très bons chercheurs en intelligence artificielle. On a un très bon support pour l'innovation assez fondamentale avec des... la BPI avec la JEI, avec le Crédit Impôt Recherche. Et on a un tissu de startup qui est dans l'intelligence artificielle, qui est vraiment en train de se développer. On a parfois tendance à ne parler que de Mistral en France, notamment les politiques et les médias, ce qui est très bien. Et de Huggings Face aussi. Oui, ce qui est très bien. pense que ces deux startups, je suis d'ailleurs investisseur chez Mistral, donc je trouve qu'ils font du fond du travail, un travail super. Mais à la fois, Hugging Face et Mistral, est déjà des entreprises très établies qui n'ont pas forcément besoin de beaucoup de visibilité en plus. Alors qu'il a des dizaines, des centaines d'autres startups d'intelligence artificielle en France qui sont en train de se développer et qui cartonnent. Tu penses à quoi ? as quelques... Par exemple, à ZML qui fait de l'inférence pour l'intelligence artificielle avec Steve Morin qui était à Zenly avant. qui est en train de des AML. pense à Linear, est une startup de cryptographie et d'intelligence artificielle. pense à des photo rooms, par exemple, qui explosent avec leur application d'édite d'image Mojo, qui fait de l'édite grâce à l'intelligence artificielle de vidéos. Il y en a vraiment des dizaines, voire des centaines de startups. d'intelligence artificielle en France ou basé en France qui font du super boulot et je trouve qu'on devrait en parler plus. Encore une question Clément, ça c'est un discours super optimiste, positif et ça fait du bien en plus. Mais l'IA, c'est aussi un truc, inévitablement, on brandit les drapeaux rouges, c'est dangereux, Des informations, cybercriminalité. Est-ce qu'on devrait réglementer l'IA comme l'énergie atomique comme certains le disent. Il faut qu'on bosse sur les risques présents et actuels. Il faut qu'on fasse de la recherche, à mon avis, sur les scénarios long terme, apocalyptiques, Robocop. C'est bien d'y réfléchir, de faire la recherche. y a très peu de recherche, en fait, sur le sujet. Mais il faut pas que ça nous obsède. Je pense que ce qui est important, c'est de travailler sur les risques actuels. Par exemple, les besoins énergétiques de l'intelligence artificielle. C'est un sujet qui se pose aujourd'hui. Donc on a lancé avec avec Salesforce il y a quelques jours, un AI Energy Score qui permet d'avoir de la transparence sur l'AI et de savoir ce que consomme en énergie l'intelligence artificielle. Il faut qu'on bosse sur les biais de l'intelligence artificielle. Quand vous parlez à Chad GPT, il faut savoir que c'est biaisé et que, par exemple, si vous lui demandez un travail typique pour un homme, ce sera différent de ce qu'il vous dira d'un travail typique d'une femme. Donc comment créer plus de transparence sur ces biais qu'a l'intelligence artificielle pour être sûr qu'elle ne manipule pas, que les entreprises qui construisent cette intelligence artificielle ne manipulent pas la population. Donc c'est vraiment ces risques d'aujourd'hui sur lesquels je pense qu'il faut qu'on travaille et que la régulation s'adapte pour avoir un cadre sain. pour ces risques aujourd'hui de l'intelligence artificielle. À propos de l'enjeu énergétique, ce qu'a montré aussi DeepSec, c'est qu'on pouvait aller vers des IA de plus en plus frugales. Est-ce que tu penses que l'IA du futur, ce sera une IA qui consommera moins d'énergie, qui aura moins besoin de data center, qui fonctionnera plus à l'intérieur de nos smartphones ou de nos ordinateurs, des petits modèles, etc. Oui, j'en suis sûr. J'en suis sûr. C'est une intelligence artificielle qui est adaptée à vos besoins. Quand vous faites une intelligence artificielle qui va vous aider à faire du customer support pour vos comptes en banque, pour répondre à une question sur vos comptes en banque, vous n'avez pas besoin d'une intelligence artificielle qui va vous donner le sens de la vie et qui va vous être capable de faire des équations comme Einstein. Vous avez besoin d'un petit système d'intelligence artificielle qui efficace, qui coûte pas cher, qui dépense pas beaucoup d'énergie. C'est pour ça que nous, essaie de pousser ce modèle où tout le monde peut créer son intelligence artificielle parce que ça va permettre de les rendre plus spécialisées, plus petites, plus efficaces au lieu de tous utiliser des énormes systèmes qui consomment énormément d'énergie, qui sont très très chers. à terme, a vraiment besoin de systèmes d'intelligence artificielle qui sont adaptés à nos besoins. Et pour ça, faut que tout le monde soit capable de créer sa propre intelligence artificielle. Et finalement, c'est le contraire de la vision de l'IAG, de l'IA générale qui sera plus puissante que l'homme et qui saura tout faire. Ouais, ouais, Et en fait, dans la réalité, vous voyez déjà que c'est pas mal le cas parce que même un OpenAI, ils ont un tas de modèles différents. Vous allez de plus en plus. C'est pas un seul modèle. Vous avez six modèles, six modèles différents. Et ça, c'est uniquement ce qu'ils vous montrent. Derrière, peut-être qu'il y en a encore dix fois plus. Donc, le modèle ultime pour l'intelligence artificielle, c'est plus un modèle décentralisé où tout le monde crée son intelligence artificielle, la même manière que tout le monde crée son logiciel pour vraiment permettre d'avoir des systèmes adaptés aux besoins de chaque entreprise et de chaque individu. Merci Clément Delange, CEO et cofondateur de Hugging Face. Merci beaucoup d'avoir été dans monde numérique. Merci beaucoup.
innovation,numérique,informatique,actualités,technologies,tech news,high-tech,