Le meilleur de la tech cette semaine : ingérences étrangères numériques, OpenAI, Anthropic, IA, données personnelles, élections et influenceurs, YouTube et pubs, JO, cybercriminalité, Time Out...
📰 Actu de la Semaine
L’un des créateurs de ChatGPT veut créer une IA “sûre”
Ilya Sutskever, co-fondateur d'OpenAI récemment évincé, a créé une nouvelle entreprise appelée SSI (Safe Superintelligence) dans le but de développer une "superintelligence sûre". Sutskever, un fervent défenseur de l'éthique en IA, vise à créer une méga intelligence artificielle éthique en mettant l'accent sur la sécurité des modèles d'IA pour prévenir les utilisations potentiellement dangereuses. (04:28)
L’IA Claude bientôt plus “intelligente”
Anthropic, une entreprise américaine, a présenté une nouvelle version de son chatbot génératif, Claude 3.5 Sonnet, qui serait deux fois plus rapide et plus intelligent que la précédente. Claude se compose de trois versions : Haiku, Sonnet et Opus. Cette version intermédiaire est particulièrement efficace pour le codage, les services client et la création de contenus littéraires. Accessible gratuitement, Claude 3.5 devrait être lancé prochainement aux États-Unis et en France. (05:24)
IA et données personnelles : Microsoft et Meta rattrapés par la patrouille
Face au mécontentement d’utilisateurs, Meta et Microsoft ont dû revoir leur intention d'utiliser les données des utilisateurs pour entraîner leurs modèles d'intelligence artificielle. En conséquence, Meta a annoncé qu'il n'utiliserait pas, pour le moment, les publications Facebook et Instagram en Europe, malgré les arguments avancés sur la prise en compte des spécificités linguistiques et culturelles des pays européens. (07:06)
Des influenceurs payés pour diffuser des consignes de vote ?
Des influenceurs, comme Maeva Ghennam et Jeremstar, prétendent avoir été contactés pour promouvoir des candidats aux élections législatives, une pratique potentiellement illégale. Mise en cause, La France Insoumise nie être à l’origine ce cette affaire. (08:19)
☕️ La chronique de Jérôme Marin (Cafetech)
YouTube toujours en guerre contre les bloqueurs de publicité
YouTube prépare une offensive contre les bloqueurs de publicité en testant une solution technique qui rendrait ces programmes inopérants. Cette stratégie s'inscrit dans une offensive plus large de Google, dont le modèle économique repose presque intégralement sur la publicité. (11:04)
🇫🇷🇨🇦 Le Debrief Transatlantique avec Bruno Guglielminetti (Mon Carnet)
IA “sûre” : qu’est-ce que ça cache ?
Le débat porte sur le développement de l'intelligence artificielle (IA), avec deux camps distincts : ceux qui préconisent une approche prudente et sécuritaire, et ceux qui sont plus mercantiles, prêts à prendre des risques pour rester en tête. La question de l'éthique et de la sûreté dans l'IA est cruciale, et il est essentiel que cela ne devienne pas simplement un argument marketing. Le développement d'une super IA nécessite des années de recherche et d'investissement, et il est important de ne pas sous-estimer ces défis. (15:13)
💡 L’Innovation de la Semaine
Faire contrôler une IA par une autre IA pour lutter contre les hallucinations ?
L'université d'Oxford propose une solution pour le problème des "hallucinations" des intelligences artificielles génératives, où les IA inventent des réponses fausses mais plausibles. Le chercheur Sebastian Farquhar suggère de faire contrôler les IA par d'autres IA. Dans une expérience, un deuxième chatbot a examiné les réponses d'un premier chatbot et a été d'accord avec les évaluateurs humains dans 93% des cas. Cependant, certains chercheurs critiquent cette approche, craignant qu'elle n'ajoute des hallucinations à des hallucinations. (27:22)
🎤 Interview
Ingérences étrangères dans l’espace numérique : la Russie et la Chine à la manoeuvre
🎙 Bernard Benhamou, Secrétaire général de l'Institut de la souveraineté numérique
L'ingérence étrangère numérique, notamment via les réseaux sociaux, est de plus en plus courante et sophistiquée. Des pays comme la Chine et la Russie cherchent à influencer les élections et à affaiblir les démocraties en polarisant les points de vue extrêmes. Les outils d'intelligence artificielle générative permettent de créer des campagnes de désinformation à grande échelle et à faible coût, avec des faux profils et des messages automatiques. Les plateformes de réseaux sociaux tentent de lutter contre ces faux comptes, mais la tâche est difficile et compliquée par leur modèle économique basé sur l'acquisition de nouveaux utilisateurs. (31:00)
🎤 Interview
L’AI aide les cybercriminels… et les spécialistes de la cybersécurité
[PARTENARIAT]
🎙 Benoit Grünemwald, spécialiste cybersécurité chez Eset
L'intelligence artificielle (IA) joue un rôle croissant dans la cybercriminalité, avec des cybercriminels qui l'utilisent pour améliorer leurs tactiques, y compris l'hameçonnage et la création de deepfakes. Les cybercriminels se professionnalisent également, offrant des services complets pour mener des campagnes d'hameçonnage. Cependant, l'IA est également utilisée par les professionnels de la cybersécurité pour détecter les logiciels et les comportements malveillants. (01:04:07)
Bonne écoute !