@Marcel L'IA ne sait pas créer à partir de rien. Par le deep learning, elle a besoin d'une gigantesque quantité de données pour pouvoir commencer à comprendre et ré-interpréter des concepts.
Les visages maintenant, ça semble maitrisé (selon les IA), parce que ce sont des modèles ultra abondants sur les banques d'images, mais aussi ultra déclinés (faces, profil, 3/4 face, souriant, neutre, tristes, etc...)
Or les mains présentent deux différences susceptibles de perturber les IA :
- Elles sont beaucoup plus rares. Quand elles ne sont pas absentes ou incomplétes (sur des images type portrait), elle sont très souvent représentées en action ou situation (poignée de main, prise d'un objet, posé sur une surface, avec certains doigts plus ou moins replié, cachés). En comparaison du reste, on ne trouve pas tant que ça de mains à la fois "neutres" et rattachées à un modèle (de sorte à faire comprendre à l'IA comment se comporte une main par rapport au reste d'un corps).
- Elles sont mécaniques. Et oui, de par sa mobilité et sa gestuelle, une main présente de nombreuses formes (poing fermé, ouvert, doigts repliés ou non, rotation du poignet) ce qui termine de la complexifier aux yeux des IA... mais aussi des humains.
Car même lorsque l'on comprend comment une main est sensée se comporter selon la situation (toutes les IA ne le comprennent pas encore), ça reste un modele extrémement difficile à retranscrire. De renommés peintres et portraitistes, comme Théodore Géricault, ont avoué buter sur la représentation de mains ou de pieds.