Tuer c'est mal, oui... mais pourquoi?
-
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Ma vision de l'IA quand elle sera réellement opérationnelle est effectivement de prospective, ou de SF si tu veux. Et tu vois peut-être la SF comme ne se projetant qu'à 300 ans, ou totalement irréaliste. Je ne sais, et ne comprends pas trop ou tu veux en venir.
Ce que je veux dire c est qu il y a déja des véhicules en circulation avec des fonctionnalités automatiques donc les dilemnes vont se présenter avant l arrivée de l IA forte dont tu espères qu elle fera un choix éclairé.
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
J'ai précisé que les IA seront en réseau, et que donc un véhicule connaîtra la position et la vitesse, ainsi qu'une foule d'autres paramètres intimes des autres véhicules, y compris la position relative des piétons en approche, etc.
Cela me parait illusoire d imaginer que l IA sera omnisciente même en réseau. Dans mon exemple tu éludes totalement les informations non visible (intentions de la personne qui se jette devant la voiture, état de santé des protaganistes) qui pourraient faire qu une décision soit moins pire qu une autre
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Et pour les trois lois, ce sont des instructions très simple en programmation. Et je ne vois pas la difficulté à les implémenter.Et bien vas-y je t en prie je te laisse le choix du langage
Si au passage tu peux implémenter le sens commun sur lequel se cassent les dents les chercheurs en IA ne te prive pas.
Vu tes affirmations tu n'as pas besoin d'explications techniques 🤭 -
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
Ce que je veux dire c est qu il y a déja des véhicules en circulation avec des fonctionnalités automatiques donc les dilemnes vont se présenter avant l arrivée de l IA forte dont tu espères qu elle fera un choix éclairé.
Et c'est pour cela que j'ai précisé qu'il y a aura une à deux décennies de test ! avec éventuellement des erreurs d'appréciation.
Cela me parait illusoire d imaginer que l IA sera omnisciente même en réseau. Dans mon exemple tu éludes totalement les informations non visible (intentions de la personne qui se jette devant la voiture, état de santé des protaganistes) qui pourraient faire qu une décision soit moins pire qu une autre
C'est peut-être illusoire. Je ne le crois pas. Je n'élude rien, je mets des etc.
Si quelqu'un se jette d'un pont sur une autoroute (dans un carrefour aussi mais les voitures s'arrêteront rapidement), il réussira certainement à se suicider ! Les véhicules tenteront des modifications menaçant le moins de vie. A moins que ce soit de nuit avec un seul véhicule tous les 300 m, le véhicule "malchanceux" le percutera (voire sera percuté par le suicidaire) et gérera au mieux ensuite pour garder un certain contrôle. Les autres véhicules s'écarteront de façon à se froler au pire mais sans se toucher en évitant si possible de rouler sur le corps...
Faut-il que nous allions plus dans le détail ?Et bien vas-y je t en prie je te laisse le choix du langage
Si au passage tu peux implémenter le sens commun sur lequel se cassent les dents les chercheurs en IA ne te prive pas.
Vu tes affirmations tu n'as pas besoin d'explications techniques 🤭Mon prolog est loin mais en quoi, dans d'autres langages même moins orientés objets serait-il difficile d'écrire des règles de conditionnalité sur la base de prédicats ?
Après je n'ai pas dit être chercheur en IA. C'est bien pourquoi je suis peut-être trop sûr que les difficultés seront contournées, comme bien d'autres problèmes ont été traités. Et c'est aussi pourquoi je te demande de me montrer en quoi ces règles de conditionnalité sont impossibles à implémenter une fois programmées... ???
Mais je veux en ce cas que tu me montres que cela est difficile (et donc également aux autres chercheurs en quoi il est donc impossible d'y parvenir)...Quel est l'objectif, de souligner que puisque je ne suis pas chercheur en IA, rien de ce que je n'évoque n'a une chance d'exister un jour ? Ou que nous n'y sommes pas ? Ce que j'avais effectivement déjà dit...
Ou un simple discrédit d'autorité ?
-
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Après je n'ai pas dit être chercheur en IA. C'est bien pourquoi je suis peut-être trop sûr que les difficultés seront contournées, comme bien d'autres problèmes ont été traités. Et c'est aussi pourquoi je te demande de me montrer en quoi ces règles de conditionnalité sont impossibles à implémenter une fois programmées... ???
Mais je veux en ce cas que tu me montres que cela est difficile (et donc également aux autres chercheurs en quoi il est donc impossible d'y parvenir)...Merci pour l inversion de la charge de la preuve mais je n ai fait que dire qu en l état actuel des choses on ne sait toujours pas implémenter ces 3 lois. C est un constat et un fait, personne ne prétend l avoir fait. En revanche tu as affirmes que c est facile à implémenter "Et pour les trois lois, ce sont des instructions très simple en programmation" donc c est à toi de le démontrer
Quel est l'objectif, de souligner que puisque je ne suis pas chercheur en IA, rien de ce que je n'évoque n'a une chance d'exister un jour ? Ou que nous n'y sommes pas ? Ce que j'avais effectivement déjà dit...
Tu semblais dire qu il n y avait pas de dilemne puisque l IA saurait tout sur tout et qu elle prendrait donc la meilleure des décisions.
Je soulignais simplement que tu idéalises l IA et qu on en est loin donc que ces dilemnes sont bien à résoudre maintenantOu un simple discrédit d'autorité ?
Quelle autorité ? J ai juste rappelé l état de l art actuel
-
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
Merci pour l inversion de la charge de la preuve mais je n ai fait que dire qu en l état actuel des choses on ne sait toujours pas implémenter ces 3 lois. C est un constat et un fait, personne ne prétend l avoir fait. En revanche tu as affirmes que c est facile à implémenter "Et pour les trois lois, ce sont des instructions très simple en programmation" donc c est à toi de le démontrer
Je n'ai jamais dit que c'était facile. J'ai dit, et c'est très différent, que je ne vois pas en quoi c'est difficile. J'ai même expliqué auparavant que, je me cite :
@leoSuis-je réellement trop confiant (ah la confiance... un beau sujet !) ?
ET
Après je n'ai pas dit être chercheur en IA. C'est bien pourquoi je suis peut-être trop sûr que les difficultés seront contournées...Donc pourquoi apporterais-je la preuve de quelque chose que je n'ai pas dit ?
Je ne dis pas que nous avons les moyens de l'actualiser, mais que je n'en VOIS pas la difficulté. Je ne la vois pas !!!
Cela ne veut pas dire qu'il n'y a pas de difficulté, NI qu'il y en a. Mais que je tends à penser, pour ma part qu'il n'y en a pas. Et je le redis peut-être à tord !
Pourquoi ai-je cette conviction ?
Je l'ai dit aussi. Mon expérience de programmation en prolog, et ce qui suit dans ma réponse à ton autre point.Après si tu veux que "peut-être à tord" deviennent "à tord", tu as le droit de le penser. Ça ne me pose aucun soucis, et je n'ai ni la prétention, ni le temps pour valider ou invalider cette perception... Et je comprends tout à fait que tu ne veuilles pas me croire sur parole, mais pourquoi, en ce cas, te croirais-je alors sur le même principe ?
Tu semblais dire qu il n y avait pas de dilemne puisque l IA saurait tout sur tout et qu elle prendrait donc la meilleure des décisions.
Je soulignais simplement que tu idéalises l IA et qu on en est loin donc que ces dilemnes sont bien à résoudre maintenantJe faisais, tout comme toi, de la prospective.
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :@la-passagère ce genre de dilemne c est exactement ce à quoi devront faire face les voitures autonomes.
Tu parlais bien au futur ?
Nous avons rêvé d'aller sur la lune, nous avons résolu les difficultés pour le faire, idem pour l'envoi de sondes sur Mars. Dans le même registre, tu pourras m'expliquer qu'il est totalement et radicalement impossible d'envoyer un être humain sur mars. Ce serait très probablement suicidaire pour le moment d'après ce que j'en sais mais je crois que ça ne posera pas trop de problèmes dans les décennies qui viennent. Là aussi je m'illusionne possiblement...
Si l'idée est de dire que tant qu'on a pas fait quelque chose on ne l'a pas fait... Je ne saisi pas bien l'intérêt d'une telle tautologie ?Quelle autorité ? J ai juste rappelé l état de l art actuel
Actuel... oui...
Pour résumer, Non ! Les voitures actuelles ne sont pas capables de faire ce que je décris !
De fait, elles n'ont pas encore besoin des 3 lois d'Asimov. Et Oui, il est possible que cela soit difficile à implémenter, mais Non, je ne le crois pas !(pourquoi je n'ai toujours pas les émoji moi ? Il faut faire une manip ? Elle est donné quelque part ? Je chercherai plus tard...)
-
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Et pour les trois lois, ce sont des instructions très simple en programmation.\
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Je n'ai jamais dit que c'était facile
simple != facile ?
(pourquoi je n'ai toujours pas les émoji moi ? Il faut faire une manip ? Elle est donné quelque part ? Je chercherai plus tard...)
Bug du forum sans solution pour le moment
-
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Et pour les trois lois, ce sont des instructions très simple en programmation.\
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Je n'ai jamais dit que c'était facile
simple != facile ?
(pourquoi je n'ai toujours pas les émoji moi ? Il faut faire une manip ? Elle est donné quelque part ? Je chercherai plus tard...)
Bug du forum sans solution pour le moment
Tu tronques mes citations, et les mélanges... Super ! Belle méthode ! Je vois mieux l'objectif poindre. J'avais bien commencé à comprendre que le débat ne t'intéressait pas le moins du monde rires !
Je n'ai jamais dit que l'implémentation était facile, puisqu'elle n'a pas encore les moyens d'être mise en euvre. Le simple ne s'appliquait qu'aux instructions... Ce que tu nommes facile et ce que je nomme simple ne sont pas pas la même chose...
Mais je comprends mieux ce qui te fais saliver... Alors allons-y amuse-toi ! au moins aurais-je par ce moyen ta réponse sur ce point...
Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.A = {Si (humain = danger) alors protection(humain)}
B = {Si (instruction = humain) et si (A = faux) alors réaliser(instruction)}
C = {protection(robot) sauf si (A = faux ou B = vrai)}