Tuer c'est mal, oui... mais pourquoi?
-
Bonjour,
C’est la question qui me hante l’esprit depuis une semaine. On entend tous depuis notre jeune âge que tuer c’est mal, mais personnellement, personne ne m’a jamais expliqué pourquoi, Donc, pour avoir le cœur net, j’ai fait ce que tous les hominoïdes ont fait depuis la nuit des temps, c’est à dire taper la question sur un moteur de recherche.
Parce que avant, chez nous, les gens qui avaient des questions se dirigeaient vers la mosquée, et posaient leurs questions à un imam, celui-ci répond par une fatwa, c’était le cas jusqu’à la fin des années nonante, après le service des imams a été racheté par Google, je ne sais pas comment ils ont fait, peut être qu’ils ont construit une mosquée géante, là-bas aux zéta zunis, ils ont rassemblé des millions d’imams, et à chaque fois que tu poses une question, t’as des millions de fatwas qui s’affichent sur la même page, c’est étonnant.
Bref, ça c’est pas le sujet, c’était pour la petite histoire, les premiers résultats n’étaient pas intéressants, j’ai creusé un peu et j’ai trouvé un texte d’un philosophe français, attention, quand on dit philosophe français de nos jours c’est suspect, à cause de BHL, et en plus il s’agit d’une philosophe, deux pépins : femme et française, mais bon c’est tout ce que j’ai trouvé, on va faire avec :
Non, dit-elle, l’interdit du meurtre n’a besoin ni d’une référence religieuse, ni d’une fondation rationnelle pour asseoir sa validité. Au contraire, ces justifications l’affaiblissent, car elles rendent cet interdit absolu dépendant de quelque chose d’autre que sa force intrinsèque.
C’est du charabia, on dirait que personne n’a envie de répondre à cette question, j’ai décidé donc, d’aller directement à la source, le Livre de l’Exode :
20.13 Tu ne tueras point.
Et là une petite explication s’impose, à l’époque il n’y avait ni chiffres, ni signes de ponctuation ni smiley, que des lettres, alors on écrit tout avec des lettres par exemple : " tu ne tueras virgule que si quelqu’un t’emmerde trop point smiley moqueur", mais là vous voyez, la phrase n’est pas terminée, tu ne tueras…point, ça ne veut rien dire, on dirait que le prophète de l’époque, a commencé sa phrase, puis il a décidé de faire une pause caca, puis il a démissionné ou il a été licencié j’en sais rien.
J’ai décidé donc de répondre par moi-même à cette question, en torturant les dix neurones encore actives dans mon crâne.
Il me semble que tuer c’est mal pour des raisons purement hygiéniques, déjà c’est sale, quand tu tues quelqu’un y a du sang qui sort qui t’éclabousse…non, c’est dégueulasse, si vous voulez l’être humain c’est un cocon rempli de merde, si tu le casses ce qui sort …ah putain…c’est l’horreur…ça chlingue dans un rayon de 5km, et plus ça vieilli plus ça chlingue, donc à un moment donnée, il faut se débarrasser du cadavre, et si le voisin te voit c’est foutu, l’autre c’est un maniaque de propreté, et là il voit un sac rempli de microbes et de saloperies il ne laissera pas passer ça, donc il sort son téléphone :
– Allo la police, oui c’est encore moi, désolé, c’est à cause du bougnoule qui habite à côté de moi, il est sale, puant, hier il a jeté son sac poubelle de la fenêtre, bon aujourd’hui au moins il avait la décence de sortir son cadavre il ne l’a pas jeté par la fenêtre, mais jusqu’où on va le supporter?
Et là t’es cuit, tu vas être arrêté, juger et emprisonné, si t’es riche c’est pas très grave, la prison de Madoff était une copie conforme du paradis de Dieu (d'après ce que j'ai entendu), avec en bonus la permission de manger la pomme. Mais bon ça c’est les ztates, le pays des paradoxes, déjà si tu te présentes devant le juge, il te dira " tuer c’est mal, et par conséquent on va te tuer" mais pourquoi? tu viens de dire que tuer c’est mal?
Donc voilà, j’ai ma réponse, tuer c’est mal parce que c’est pas hygiénique, sauf bien sur quand on fait ça dans les règles de l’art, mais ça c’est autre chose, ce sont des chefs-d’œuvre signés par des artistes qu’on appelle, les céréales killers.
-
Tu es aussi du genre à ne jamais t'ennuyer lorsque tu es tout seul toi Riad hein ?
Justement je lisais ceci hier :
"« Imaginez une situation — que j'appellerai « Homme obèse » — où vous êtes sur un pont sous lequel va passer un tramway hors de contrôle se dirigeant vers cinq ouvriers situés de l'autre côté du pont. Que faites-vous ? Étant un expert en tramways, vous savez qu'une manière sûre d'en arrêter un hors de contrôle est de placer un objet très lourd sur son chemin. Mais où en trouver un ? Au moment des événements, il y a un homme obèse, vraiment très obèse, à côté de vous sur le pont. Il est penché au-dessus du chemin pour regarder le tramway. Tout ce que vous avez à faire est de lui donner une petite poussée pour qu'il tombe sur les rails et bloque le tramway dans sa course. Devriez-vous donner cette poussée ? Tous ceux à qui j'ai posé cette question m'ont répondu non. Mais pourquoi ?"
"La résistance à ce scénario semble très grande. La plupart des gens qui approuvent le sacrifice d'une personne pour en sauver cinq dans le cas du scénario classique n'approuvent pas le geste lorsque la situation leur est présentée ainsi.
Cela a mené à des tentatives pour trouver une distinction morale significative entre les deux cas. La doctrine du moindre mal de l'Église catholique propose une explication à cette réaction commune. En effet, les papes Paul VI (dans son encyclique Humanae vitae nº 14) et Jean-Paul II (dans l'encyclique Veritatis splendor nº 80) précisent « qu'il n’est pas permis, même pour de très graves raisons, de faire le mal afin qu’il en résulte un bien. »En effet, en poussant l'homme obèse de manière à le tuer, le sujet de l'expérience fait un mal en vue de faire un bien (sauver 5 personnes). La doctrine du moindre mal permet de choisir entre deux maux, si et seulement s'il n'y a pas d'alternative (comme améliorer les freins dans l'exemple du tramway). Cette condition est capitale et est souvent oubliée
-
Il existe une autre variante aussi à imaginer :
"« Un brillant chirurgien spécialiste des transplantations a cinq patients nécessitant chacun un organe différent sans lequel il mourra.
Malheureusement, aucun organe n'est disponible pour ces transplantations.
Un jeune étranger, voyageur en bonne santé, de passage dans la ville où travaille le médecin, arrive pour un contrôle médical de routine. Pendant l'examen, le chirurgien note que tous ses organes sont compatibles avec les cinq patients mourants.
Supposons par ailleurs que, si le jeune homme venait à disparaître, personne ne suspecterait le médecin.
Soutenez-vous la morale du médecin de sacrifier ce touriste et d'utiliser ses organes pour sauver la vie des cinq personnes ?"Allez Riad... tu as 4 heures !
-
@la-passagère Oui, tout à fait très chère passagère, c'est plutôt le contraire, c'est quand je suis seul que je me sens bien, je suis même en confinement volontaire depuis 7 ans et ça ne m'a fait que du bien, mais comment tu l'as deviné.
Quant au dilemme du tramway oui, je le connais, ça montre un peu les limites de l'utilitarisme, sais-tu que des psychologues ont passé ce test à des sujets bilingues et ont remarqué que les dépenses diffèrent chez la même personne selon la langue dont on présente le problème?
-
@la-passagère ce genre de dilemne c est exactement ce à quoi devront faire face les voitures autonomes.
Une université a soumis un questionnaire de ce genre a plein de personnes dans le monde et les réponses varient énormément en fonction des cultures -
@la-passagère a dit dans Tuer c'est mal, oui..mais pourquoi? :
Soutenez-vous la morale du médecin de sacrifier ce touriste et d'utiliser ses organes pour sauver la vie des cinq personnes ?"
Allez Riad... tu as 4 heures !
Non, mais je ne sais pas expliquer pourquoi, intuitivement je refuse qu'on tue quelqu'un pour sauver un autre ou même des autres, ma vision sera sans doute différente selon le contexte.
-
@riad parce que tuer quelqu'un pour en sauver un autre revient à accorder plus de valeur à la vie de l'un plutôt qu'à l'autre. Jouer à dieu en fait... Et comment savoir si on juge bien.
(effectivement si un proche est concerné on pourrait être tenté de penser différemment) -
@riad et la morale ?
-
@so-phie
Disant que si la morale est purement culturelle, elle doit obéir à des règles logiques. non?
Mais je n'exclus pas la possibilité de l'existence d'une sorte de "morale" innée, qu'on partage avec d'autres mammifères, certains éthologues pensent que d'autres animaux ont le sens de la justice, mais pour l'instant ils ne sont pas tous d'accord, moi j'y crois. -
@riad Voilà encore un sujet fortement épineux. Je ne sais pourquoi , cela me rappelle le terrible Crash de la Cordillère des andes en 1972, quand pour survivre, les rescapés ont mangé les corps des passagers décédés. Se sont-ils préoccupés d'une morale à ce moment là? Il n'y a pas de plus cruel dilemme je pense sinon l'instinct de survie plus fort que n'importe quoi.
-
@kachina c est quand meme différent de manger des cadavres et tuer quelqu un pour survivre
Je sais je chipotte -
@icescream :
je parle de la question de morale au détour du topic. Comme si on faisait mourir une 2ème fois
-
La morale n'est que logique. Une sorte de principe absolu. Une triviale opposition entre le bien et le mal, définis simplement sur les relations humaines. Confiance, fidélité, loyauté... En étant des êtres de nature sociable. Ce qui est Mal réduit l'idée du bonheur et tout ce qui en découle. Ce qui est Bien l'augmente et éloigne la souffrance.
Ne pas tuer est de l’ordre de l’impératif moral. Le faire serait mauvais, mal et détruirait le concept d'humanité. Une forme d'auto-destruction. C'est stupide de tuer donc.
-
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
@la-passagère ce genre de dilemne c est exactement ce à quoi devront faire face les voitures autonomes.
Une université a soumis un questionnaire de ce genre a plein de personnes dans le monde et les réponses varient énormément en fonction des culturesPas tout à fait le même. L'IA de la voiture a une décision à prendre, et c'est aussi elle le véhicule. Elle connaît tous ses paramètres.
Alors que la personne qui songerait à pousser quelqu'un sous un tram, même en étant spécialiste, n'aurait pas assez d'éléments pour prendre une décision qui soit autre que celle d'un meurtre, et non plus d'un accident...@riad a dit dans Tuer c'est mal, oui..mais pourquoi? :
@so-phie
Disant que si la morale est purement culturelle, elle doit obéir à des règles logiques. non?
Mais je n'exclus pas la possibilité de l'existence d'une sorte de "morale" innée, qu'on partage avec d'autres mammifères, certains éthologues pensent que d'autres animaux ont le sens de la justice, mais pour l'instant ils ne sont pas tous d'accord, moi j'y crois.Toutes les cultures utilisent une ou plusieurs logiques qui ne sont pas nécessairement mathématique, formelle.
La morale est un mot, signifiant d'un concept, donc humain, et uniquement humain. Que des animaux aient des comportements que nous pouvons juger, nous, de notre point de vue humain, comme moraux, oui ! Mais c'est toujours un anthropomorphisme, même à minima si ce comportement est lié à de la compassion par exemple, et généralisable à l'espèce considérée. Cette perception de la compassion est d'ailleurs elle-même un anthropomorphisme...Même si le ressenti éprouvé en acte est de même nature, et très proche biologiquement et physiologiquement entre l'homme et cet animal.
De fait, des ressentis innés oui, mais une morale innée non.
-
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Pas tout à fait le même. L'IA de la voiture a une décision à prendre, et c'est aussi elle le véhicule. Elle connaît tous ses paramètres.
Alors que la personne qui songerait à pousser quelqu'un sous un tram, même en étant spécialiste, n'aurait pas assez d'éléments pour prendre une décision qui soit autre que celle d'un meurtre, et non plus d'un accident...L'IA connait ses paramètres mais dans certains cas il peut y avoir un choix à faire entre protéger les piétons, les passagers etc l'IA fera ce pourquoi elle a été programmée ou entrainée. Les personnes qui conçoivent l'IA doivent donc envisager ces questions.
Les clients accepteront ils de prendre une voiture autonome qui ne les protège pas forcément eux en premier ? quelle est la reponsabilité des concepteurs du logiciel ? du fabricant ? -
Par "connaît ses paramètres", j'entendais ceux de vitesse, de freinage, de force d'impact, de risques collatéraux supplémentaires à ceux du choc (retournement, conditions climatiques, état de la route, etc.)... Elle 'connaît' et peu intégrer à sa 'réflexion' (oui, je dis bien réflexion, nous verrons pourquoi), en quelques millièmes de secondes, un nombre de paramètres complexes très supérieur globalement à un être humain. Car même si un vieux grand-père ayant des problèmes de vue, de coordinations et d'audition, voire pire, un jeune conducteur trop sûr de lui (donc encore plus dangereux car se méconnaissant), sont des conducteurs très différents d'une pilote de chasse ou de rallye, dont les aptitudes visuelles et les temps de réaction sont supérieurs et surentraînés... L'IA peut gérer les paramètres évoqués à une vitesse et avec un niveau de précision et d'intégration que même la pilote de chasse ne peut atteindre. En revanche cette dernière a des récepteurs physiologiques plus nombreux et son champ de vision est plus étendu, pour encore assez longtemps. Mais !
l'IA est rationnelle.
Son temps de réaction restera inférieur, beaucoup plus rapide.
Elle n'a pas d'hésitations (pour le moment et probablement pour longtemps).
Sa résolution et sa précision sont sans rapports même avec celle de la pilote de rallye...Enfin, les IA ne sont déjà plus réellement programmées... L'apprentissage profond (deep learning) est une instanciation conceptuelle. Les IA commencent à apprendre à apprendre. Elle vont donc progressivement créer leurs propres registres d'évaluations, en fait ... de jugement : Elles réfléchiront... Mais elles respecteront des règles limitatives (les lois de la robotiques, en nombre certainement plus élevés que trois, structurées par des relations logiques complexes). Un peu comme nos préceptes moraux (ne pas tuer, ne pas voler, ne pas se faire d'images taillées... hum ! bon... oui... plus en rapport avec notre époque, les besoins, et actualisables
). Mais ce seront des règles bien mieux respectées par ces IA ! Même si des Susan Calvin seront possiblement nécessaires un jour (en fait elles existent déjà mais n'ont pas encore à gérer des IA intuitives).
L'IA d'un véhicule dans une trentaine d'années ne laissera probablement déjà plus aucune conductrice, même surentraînée, prendre ou garder le contrôle du véhicule en situation d'urgence.
Et ses décisions seront les meilleures, et de loin. Mieux, je doute qu'elle ne puisse anticiper la quasi-totalité des accidents. Elle ne dépassera pas les limites de vitesse, sauf urgence, mais en prévenant alors toutes les autres IA à plusieurs km autour d'elle, qui lui délimiteront immédiatement un parcours sécurisé vers sa destination. Et leur réseau pourra en gérer plusieurs en même temps bien sûr... Elle ne boira pas, ne fumettera pas, ne regardera pas les beaux nuages, ou son whatsapp (enfin si mais ça ne changera rien à sa concentration !), ne se grattera pas les ..., etc.Suis-je réellement trop confiant (ah la confiance... un beau sujet !) ?
Je ne dis pas que des problèmes ne vont pas se poser avec les IA, mais pas dans le domaine de la conduite de véhicules, du moins pas après une ou deux décennies d'adaptation :D.Mais nous allons ensuite très vite rentrer dans de la prospective science fictionnelle : entités conscientes, de quoi ? Limitées au véhicule, assistant-e-s personnel-le-s multitâches, auxiliaires de vie, ami-e-s, confident-e-s, hummm j'en entends frémir là au fond !!!
Ah oui, j'oubliais les questions juridiques et assurantielles... Celle-ci viendront, comme depuis fort longtemps en fait, répondre aux problèmes qui apparaîtront. Avec quelques grands litiges, et de la jurisprudence, qui donnera, pour les droits 'romano-civilistes', des lois.
Les clients s'habitueront, comme toujours, à tout ce qui implique plus de sécurité et de confort à terme. Le train, la voiture, l'avion, ont eu leurs lots de difficultés et de drames à leurs débuts ! Et même peut-être la roue... O_O' -
@leo oui je connais tout ça et pour l instant ce que tu dis relève encore de la science fiction mais quel rapport avec le dilemne de savoir qui sacrifier ?
-
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
@leo oui je connais tout ça et pour l instant ce que tu dis relève encore de la science fiction mais quel rapport avec le dilemne de savoir qui sacrifier ?
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
Et ses décisions seront les meilleures, et de loin. Mieux, je doute qu'elle ne puisse anticiper la quasi-totalité des accidents. Elle ne dépassera pas les limites de vitesse, sauf urgence, mais en prévenant alors toutes les autres IA à plusieurs km autour d'elle, qui lui délimiteront immédiatement un parcours sécurisé vers sa destination. Et leur réseau pourra en gérer plusieurs en même temps bien sûr... Elle ne boira pas, ne fumettera pas, ne regardera pas les beaux nuages, ou son whatsapp (enfin si mais ça ne changera rien à sa concentration !), ne se grattera pas les ..., etc.C'est un dilemme pour nous, ce sera une décision informée pour une IA. Et sa décision sera la meilleure, si tant est que nous acceptions l'idée qu'une décision sur le sujet puisse être bonne. Le reste ne relève que de nos croyances, nos irrationalités.
-
@leo a dit dans Tuer c'est mal, oui..mais pourquoi? :
C'est un dilemme pour nous, ce sera une décision informée pour une IA. Et sa décision sera la meilleure, si tant est que nous acceptions l'idée qu'une décision sur le sujet puisse être bonne. Le reste ne relève que de nos croyances, nos irrationalités.
Je ne comprends pas ce que tu appelles une décision informée. L'IA n'apparait pas ex-nihilo, c est un modéle mathématique qui a été développé par des personnes et entrainée sur des données fournies aussi par des personnes donc avec une multitude de biais possibles. A cela tu peux ajouter le fait que les IAs se font facilement berner ( un bout de scotch sur un panneau, une tache pres d un marque au sol peut les faire dérailler voir un simple pixel qui change transformer un chimpanzé en éléphant).
Certes l IA peut tres bien connaitre un nombre de paramètres très élevés mais elle ne peut pas dépasser les lois de la physique pour autant. Un cas simple d un carrefour en T avec une rue qui vient de la droite alors que la voiture va tout droit en sens unique. Un personne débouche de la droite en courant caché par un mur et le seul moyen de l éviter c est de faucher la mamie qui marche sur le trottoir de gauche parce que de toute façon la 1.5t de ta voiture ne peut pas s arreter sur une distance aussi courte. C est quoi le choix informé ? L IA sait que la mamie a un anevrisme qui peut ou pas péter au moindre choc ? Que la personne qui déboule en courant est en train de faire une tentative de suicide ?Un humain va agir par réflexe pour le meilleure ou pour le pire mais on sait que l erreur est humaine.
Si l IA ne prend pas une décision est ce une faute ? Si elle prend sa decision sur quel critère le fait elle ?Ta visiion de l IA ressemble fortement a l IA forte dont l état de l art est tres tres loin actuellement.
Pour rappel les 3 lois de la robotique datent de 1942 et on a toujours pas la moindre idée de comment les implémenter... -
@icescream a dit dans Tuer c'est mal, oui..mais pourquoi? :
Ta visiion de l IA ressemble fortement a l IA forte dont l état de l art est tres tres loin actuellement.
Pour rappel les 3 lois de la robotique datent de 1942 et on a toujours pas la moindre idée de comment les implémenter...Ma vision de l'IA quand elle sera réellement opérationnelle est effectivement de prospective, ou de SF si tu veux. Et tu vois peut-être la SF comme ne se projetant qu'à 300 ans, ou totalement irréaliste. Je ne sais, et ne comprends pas trop ou tu veux en venir.
J'ai précisé que les IA seront en réseau, et que donc un véhicule connaîtra la position et la vitesse, ainsi qu'une foule d'autres paramètres intimes des autres véhicules, y compris la position relative des piétons en approche, etc.
Si c'est simplement pour dire que nous n'y sommes pas là tout de suite. Chacun en sortant de chez lui le sait déjà je pense... Et je ne faisais que répondre à ton post sur les voitures qui se projetait déjà dans le futur.Et pour les trois lois, ce sont des instructions très simple en programmation. Et je ne vois pas la difficulté à les implémenter. Si tu es logicien ou informaticien dans les systèmes d'I.A. je veux bien des explications, y compris techniques... Et ces lois pourraient dater de Mathusalem que ça n'y changerait rien...
Qui plus est j'ai mentionné le fait qu'il pourrait y en avoir beaucoup plus. C'est même assez certain, car elles sont une base, une sécurité première.