Comme la société, Apple Intelligence est finalement pleine de préjugés
Sa fonction de génération d’images reproduit les stéréotypes raciaux.
Les premières versions d’intelligence artificielle ont tendance à commettre des erreurs parfois gênantes… Rappelez-vous en février 2024, quand Google a dû suspendre la génération d’images sur Gemini. Son IA représentait des soldats nazis noirs et des femmes parmi les pères fondateurs américains, forçant l’entreprise à désactiver temporairement cette fonctionnalité.
Apple Intelligence n’échappe pas à la règle. Si vous utilisez déjà la suite d’outils IA d’Apple au Royaume-Uni ou aux États-Unis, vous avez peut-être remarqué ses erreurs dans le résumé des notifications. La BBC et le New York Times ont été victimes de plusieurs fausses informations générées par l’IA. La firme à la pomme fait maintenant face à un nouveau défi avec son générateur d’images.
Des stéréotypes profondément ancrés
Image Playground, l’outil de génération d’images d’Apple Intelligence, peine à gérer la diversité. L’expert en modèles de langage Jochem Gietema a testé le système en soumettant sa photo, obtenant des résultats surprenants. L’IA hésite sur la couleur de peau du sujet, le représentant tantôt blanc, tantôt noir, rien de bien grave en soit.
Le plus troublant est qu’Image Playground reproduit des clichés sociaux bien ancrés. Lorsque Jochem a demandé au générateur d’Apple de générer des images de lui en”riche » ou « banquier », l’outil génère majoritairement des visages blancs en costume. À l’inverse, les mots « pauvre » ou « fermier » produisent essentiellement des visages plus foncés avec des tenues décontractées :
Found some biases in @Apple's Image Playground, which is their newest text-to-image generation app. For one particular photo, it creates very different images depending on the prompt (same input image). Some examples: pic.twitter.com/NO1oSxvO8r
— Jochem Gietema (@gietema) February 17, 2025
Une IA qui reflète nos biais
Ces résultats soulèvent des questions sur l’apprentissage de l’IA. Les données utilisées pour entraîner Image Playground semblent provenir d’une base imprégnée de stéréotypes sociaux. Apple devra probablement revoir son approche pour éviter ce type d’associations discriminantes.
L’expert à l’origine de ces tests précise cependant que ces biais n’apparaissent pas systématiquement. En utilisant d’autres photos comme point de départ, Image Playground produit des résultats plus équilibrés. La firme à la pomme devrait donc corriger ces dérives avec une mise à jour de son modèle d’apprentissage.