mardi 13 septembre 2016

Un concours de beauté mené par une IA jugée raciste


Un concours de beauté mené par une IA jugée raciste http://www.ladn.eu

Introduction
Tollé pour Beauty.AI, le premier concours de beauté jugé par une intelligence artificielle : il semblerait que cette dernière aime peu les peaux foncées.
Un concours de beauté international jugé par un algorithme a suscité la controverse après que les résultats aient été révélés. Quatre « machines » avaient été programmées afin de requérir à des critères objectifs tels la symétrie du visage (robot Symmetry Master), la pigmentation de peau et les rides (robot PIMPL), la ressemblance avec des mannequins et acteurs (robot MADIS) ou encore la vraisemblance entre l’âge donné et celui perçu informatiquement (robot AntiAgeist). Pourtant, au vue des résultats révélés par ces robots spécialement créés pour l’occasion, il semblerait que le facteur ‘peau blanche’ ait été prédominant.

Beauty.AI
Le concours, baptisé Beauty.AI, a enregistré près de 6 000 candidatures de personnes venant de plus de 100 pays, dont beaucoup d’Inde ou d’Afrique. Sur les 44 gagnants, les initiateurs du programme ont eu la mauvaise surprise de constater que presque tous étaient caucasiens, une poignée était asiatique, et un seul avait la peau foncée. Conclusion : les robots n’aiment pas les gens à la peau foncée.


Beauty.AI a été créé par les laboratoires Youth et est soutenu par Microsoft. Pour justifier les résultats, Alex Zhavoronkov, le directeur scientifique du programme, a invoqué le fait que les données utilisées pour nourrir les algorithmes et procéder à leur apprentissage afin d’établir des normes d’attractivité de beauté ne prenaient pas suffisamment en compte les minorités. « S’il n’y a pas suffisamment de personnes de couleur dans la base de données, alors vous courez le risque que les résultats soient biaisés », assure Alex Zhavoronkov. Ce dernier indique néanmoins avoir été stupéfait par les gagnants : instinctivement il aurait choisi la plupart.

Pour d’autres spécialistes, l’erreur est bien d’origine humaine : si l’algorithme est biaisé, c’est parce que les hommes qui l’ont créé avaient un parti pris.  «L’idée que vous pouvez venir avec une conception culturellement et racialement neutre de la beauté est tout simplement ahurissante. », explique Bernard Harcourt, professeur en droit et en science politique à l’université de Columbia, au Guardian.