Compagnons virtuels et clones numériques: usages en hausse, encadrement encore en construction
Introduction : Les agents conversationnels « amis », les clones vocaux ou vidéo et les « coachs » IA se multiplient dans la vie quotidienne. Des acteurs publics et privés testent de nouveaux services audio ou d’assistance, tandis que les autorités tâtonnent pour fixer des règles, notamment contre les deepfakes et la désinformation. Les élèves doivent apprendre à identifier ce qui relève du réel, de l’IA… ou de l’intox.
Faits vérifiés
– En juin 2025, Google a présenté Audio Overviews, une fonctionnalité qui génère des podcasts courts à partir de résultats de recherche, illustrant l’essor d’audios produits par IA. (france24.com)
– En 2022, l’État de New York a déployé environ 800 robots compagnons « ElliQ » pour des personnes âgées afin de lutter contre l’isolement, un exemple d’usages sociaux des « assistants » non humains. (fr.euronews.com)
– Côté régulation, la Californie a débattu d’un encadrement large des modèles d’IA mais le gouverneur a opposé son veto en septembre 2024 au projet de loi SB 1047. Parallèlement, d’autres textes ciblent les deepfakes et les contenus intimes non consentis aux États‑Unis. (lemonde.fr)
– Les cellules de fact‑checking signalent des intox liées à l’IA, comme une vidéo de « pompiers de Los Angeles » sauvant des animaux durant les incendies de janvier 2025, qui était en réalité générée par IA. (factuel.afp.com)
Développement
Audio Overviews (Google) convertit des éléments textuels issus d’une requête en un court podcast à deux voix de synthèse, simplifiant l’accès à l’information en mobilité. Cette tendance s’inscrit dans l’émergence d’outils capables de fabriquer en masse des programmes audio sans studio ni présentateur humain, observée par la presse internationale. (france24.com)
Au‑delà des médias, des « compagnons » matériels ou logiciels sont testés pour le lien social. L’initiative new‑yorkaise autour du robot ElliQ visait rappels santé, échanges quotidiens et maintien du lien avec proches et aidants, tout en posant des questions d’éthique, de données et de transparence sur la nature non humaine de l’agent. (fr.euronews.com)
Sur le plan juridique, si la Californie n’a pas adopté en 2024 le texte général SB 1047 encadrant les « modèles pionniers » (veto du gouverneur), plusieurs cadres ciblés émergent contre les deepfakes et la diffusion d’images intimes non consenties aux États‑Unis, tandis que des pays européens avancent aussi sur ces sujets. Conclusion prudente: l’encadrement progresse par morceaux (deepfakes, protection des mineurs, transparence), mais reste incomplet pour les « amis » et « coachs » IA. (lemonde.fr)
Désinformation et rumeurs
- Fausse vidéo virale: des « pompiers de Los Angeles » sauvant des animaux durant les grands feux de janvier 2025. Analyse: images générées par IA, indices visuels incohérents; conclusion: faux. (factuel.afp.com)
- Rumeur: « une IA lira bientôt vos messages privés pour prévenir les services sociaux ». Vérification: aucun texte ne prévoit un tel dispositif; rappel des protections juridiques en vigueur. (factuel.afp.com)
Quiz interactif EMI
Réponds puis clique pour vérifier :
Lexique
- Désinformation : Contenu faux ou trompeur diffusé intentionnellement pour manipuler l’opinion.
- Rumeur : Information non vérifiée qui circule sans preuve solide.
- Clickbait : Titre accrocheur conçu pour attirer des clics, parfois au détriment de l’exactitude.
Exercice EMI
Choisis une vidéo virale récente. 1) Repère trois indices éventuels d’IA (mains, textures, ombres, voix). 2) Cherche une vérification indépendante (AFP Factuel, Euronews, France 24). 3) Note si la vidéo est authentique, détournée ou générée, et justifie ta conclusion en 5 lignes.
Je m’auto-évalue
- [ ] J’ai identifié la source et la date de l’info
- [ ] J’ai comparé avec au moins 2 médias de la liste
- [ ] J’ai vérifié les images/vidéos (signes d’IA, contexte)
- [ ] J’ai reformulé avec mes mots sans exagération
Catégorie : Fact checking et désinformation


