@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
C'est un dilemme pour nous, ce sera une décision informée pour une IA. Et sa décision sera la meilleure, si tant est que nous acceptions l'idée qu'une décision sur le sujet puisse être bonne. Le reste ne relève que de nos croyances, nos irrationalités.
Je ne comprends pas ce que tu appelles une décision informée. L'IA n'apparait pas ex-nihilo, c est un modéle mathématique qui a été développé par des personnes et entrainée sur des données fournies aussi par des personnes donc avec une multitude de biais possibles. A cela tu peux ajouter le fait que les IAs se font facilement berner ( un bout de scotch sur un panneau, une tache pres d un marque au sol peut les faire dérailler voir un simple pixel qui change transformer un chimpanzé en éléphant).
Certes l IA peut tres bien connaitre un nombre de paramètres très élevés mais elle ne peut pas dépasser les lois de la physique pour autant. Un cas simple d un carrefour en T avec une rue qui vient de la droite alors que la voiture va tout droit en sens unique. Un personne débouche de la droite en courant caché par un mur et le seul moyen de l éviter c est de faucher la mamie qui marche sur le trottoir de gauche parce que de toute façon la 1.5t de ta voiture ne peut pas s arreter sur une distance aussi courte. C est quoi le choix informé ? L IA sait que la mamie a un anevrisme qui peut ou pas péter au moindre choc ? Que la personne qui déboule en courant est en train de faire une tentative de suicide ?
Un humain va agir par réflexe pour le meilleure ou pour le pire mais on sait que l erreur est humaine.
Si l IA ne prend pas une décision est ce une faute ? Si elle prend sa decision sur quel critère le fait elle ?
Ta visiion de l IA ressemble fortement a l IA forte dont l état de l art est tres tres loin actuellement.
Pour rappel les 3 lois de la robotique datent de 1942 et on a toujours pas la moindre idée de comment les implémenter...