Suivez-nous

iPhon.fr

Comme la société, Apple Intelligence est finalement pleine de préjugés

Sa fonction de génération d’images reproduit les stéréotypes raciaux.

iPhon.fr

Publié le

 

Par

© iPhon.fr x Apple

Les premières versions d’intelligence artificielle ont tendance à commettre des erreurs parfois gênantes… Rappelez-vous en février 2024, quand Google a dû suspendre la génération d’images sur Gemini. Son IA représentait des soldats nazis noirs et des femmes parmi les pères fondateurs américains, forçant l’entreprise à désactiver temporairement cette fonctionnalité.

Apple Intelligence n’échappe pas à la règle. Si vous utilisez déjà la suite d’outils IA d’Apple au Royaume-Uni ou aux États-Unis, vous avez peut-être remarqué ses erreurs dans le résumé des notifications. La BBC et le New York Times ont été victimes de plusieurs fausses informations générées par l’IA.  La firme à la pomme fait maintenant face à un nouveau défi avec son générateur d’images.

Des stéréotypes profondément ancrés

Image Playground, l’outil de génération d’images d’Apple Intelligence, peine à gérer la diversité. L’expert en modèles de langage Jochem Gietema a testé le système en soumettant sa photo, obtenant des résultats surprenants. L’IA hésite sur la couleur de peau du sujet, le représentant tantôt blanc, tantôt noir, rien de bien grave en soit.

Le plus troublant est qu’Image Playground reproduit des clichés sociaux bien ancrés. Lorsque Jochem a demandé au générateur d’Apple de générer des images de lui en”riche » ou « banquier », l’outil génère majoritairement des visages blancs en costume. À l’inverse, les mots « pauvre » ou « fermier » produisent essentiellement des visages plus foncés avec des tenues décontractées :

Une IA qui reflète nos biais

Ces résultats soulèvent des questions sur l’apprentissage de l’IA. Les données utilisées pour entraîner Image Playground semblent provenir d’une base imprégnée de stéréotypes sociaux. Apple devra probablement revoir son approche pour éviter ce type d’associations discriminantes.

L’expert à l’origine de ces tests précise cependant que ces biais n’apparaissent pas systématiquement. En utilisant d’autres photos comme point de départ, Image Playground produit des résultats plus équilibrés. La firme à la pomme devrait donc corriger ces dérives avec une mise à jour de son modèle d’apprentissage.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *