Le problème ne réside pas dans les choix que la machine fera ou fera pas. La question est d ou tirera t elle ces informations qui nécessitent un data monstrueux et liberticide. Non... je parle pas de la 5g ca cest de la technologie...je parle de l'usage que l on en fera... a bientôt sur les routes au volant de mon vieux diesel...ou de mon vélo...
Vous avez oublié de parler du fait que certaine personne traverse la route alors que le feu est rouge, il y a donc une notion d'interdiction en plus et ca complique bien plus les réponses a donner dans le questionnaire.
Toutes les vies sont prises en compte à un instant T et peu importe qui est le fautif dans l'histoire. Par contre, même aujourd'hui, un piéton qui passe au rouge et qui provoque un accident avec un véhicule ne sera jamais en tord. Je cite : " L’article R415-11 du code la route précise la nécessité pour les autres usagers de la route (automobile, cyclomoteurs, vélos et tous les autres) de laisser la priorité aux piétons engagés sur la chaussée même si ce dernier traverse alors que le feu piéton est rouge (bonhomme rouge)." "Lorsque vous avez malheureusement un accident avec un piéton qui a traversé au feu bonhomme rouge (ou même en dehors d’un passage piéton), vous êtes redevable des indemnités liées aux dommages corporels dans la plupart des cas (sauf suicide ou faute inexcusable évoquée plus haut qu’il faudra prouver). Le piéton est en infraction, est responsable mais vous avez tort puisque vous deviez anticiper sa traversée. C’est une situation paradoxale dans le code de la route, souvent décriée mais bien réelle."
dans le test on peut aussi choisir entre tuer un médecin ou un gens lambda et il me semble que le médecin est plus sauvé car il peut potentiellement sauver des vies (ya aussi avec d'autre classe sociale).
La classe sociale est prise en compte, simplement parce qu'un cadre a plus de chance d'entamer des poursuites judiciaires qu'un SDF s'il se fait renverser. Ce sont des choix dégueulasses à faire, mais c'est celui que la plupart des gens feraient (dont moi) si ils avaient à décider. Dans tous les cas il y a de fortes chances que ces choix à faire soient demandés au conducteur dès le premier démarrage de la voiture autonome, afin que le fabricant de la voiture ne soit pas impliqué juridiquement et que le conducteur assume ses décisions devant un tribunal.
ou alors tu fais comme en Chine, pour s'assurer qu'il ne pose pas de soucis et afin d'éviter de devoir prendre en charge tous les soins, tu lui repasses dessus
Un humain reste un humain. Par contre cet été on a entendu personne se lamenter sur le dort des personnes âgés durant la canicule par contre pour sauver une équipe de foot coincé dans une grotte on a aligner des millions. Deuxièmement imaginez 5 secondes que qq qui travaille sur un remède au cancer, les énergies renouvelables meurt parce-que le système à préféré sauve un SDF toxicomane, ca ne me paraît pas juste.
Je pensais pas dans ce sens là (oui j'ai pas fais le test my bad) mais oui totalement d'accord dans ce cas là (après les cadres en général ils sauvent pas beaucoup de vie directement x) )
C'est ce que font les i.a. il y a un concept "sdf" et un concept "pdg". je vous dit SDF => habit chelou, odeur chelou, demarche chelou, pousse un cadie plein de truc chelou, bref un mec chelou. Par contre PDG => au volant de la voiture automne hors de prix, pas besoin de se posé la question.
En bref, si un humain est capable de faire une distinction entre 2 catégories, sur un certain nombre de critères, alors une IA est capable de réaliser la même distinction en se fondant sur les mêmes critères... et même avec plus de fiabilité. Pour répondre précisément à ta question, l'estimation sera plus fiable avec des capteurs adaptés, par exemple, un capteur de distance est moins adapté pour faire une distinction sociale qu'une caméra par exemple. Mais, pour distinguer une personne en bonne forme physique d'une personne ralentie (personne agée, handicapé...), des simples statistiques sur la vitesse de déplacement et la forme de l'objet sont amplement suffisantes et très fiables. Il est parfois difficile d'admettre à quel point les IA sont développés en 2018, mais il faut être conscient de leurs capacités de discernement et d'évaluations, le principal frein en 2018 étant l'éthique, qui est justement le sujet de la vidéo.
Petit rappel de la Déclaration universelle des Droits de l’Homme : Article 1er : « Tous les êtres humains naissent libres et égaux en dignité et en droits. » Article 2 : « Chacun peut se prévaloir de tous les droits et de toutes les libertés proclamés dans la présente Déclaration, sans distinction aucune, notamment de race, de couleur, de sexe, de langue, de religion, d’opinion politique ou de toute autre opinion, d’origine nationale ou sociale, de fortune, de naissance ou de toute autre situation. » Article 3 : « Tout individu a droit à la vie, à la liberté et à la sûreté de sa personne. » Article 7 : « Tous sont égaux devant la loi et ont droit sans distinction à une égale protection de la loi. » J'en déduis donc que tout choix visant à tuer ou sauver une personne plutôt qu'une autre va à l'encontre de cette déclaration et est donc illégal.
Creib Hoo « tous sont egaux devant la LOI » il te faut quoi de plus ? certe ils on les meme droit mais pas le meme aport sur la planete (un clodo ne sera jamais plus important qu’un scientifique) imaginon si tu devais choisir entre sauver un scientifique de 90 ans qui va bientot trouver un remede contre le cancer ou un bus rempli d’enfant tu choisi quoi ? Je suposse que là tu choisis le scientifique mais en vrai je pense que tu choisirais les enfant tout est question de moral
Et donc comment résoudre la situation ? D'après ce raisonnement soit on ne tue aucun des deux (dans cette situation c'est impossible) soit on tue les deux, rendant ce raisonnement stupide .
@@epiktoo5002 Je pense que parmi les critères acceptables, on pourrait garder celui qui consiste à épargner le plus de personnes possible. Et encore, même dans ce cas, est-il juste de tuer une personne qui a respecté le code de la route pour en sauver plusieurs qui l'ont violé ? Ce n'est pas sûr. Mais éthiquement, on ne peut pas choisir de tuer ou sauver une personne selon son statut social, sa religion ou son sexe par exemple. De toute façon, je crois que quand on en arrive au point de choisir une personne à tuer pour en sauver une autre, c'est déjà un échec et il n'y a pas de bonne solution.
Je pense surtout que le problème est mal posé. La voiture autonome ne devrait jamais dévier de trajectoire et mettre en danger ses occupants impuissants mais toujours choisir de continuer sa route ( en cas de situation critique où l’accident est inévitable bien sûr) et c’est alors à l’humain peut importe son âge, son genre ou sa classe social d’être mieux éduqué sur le fait que traverser une route est un moment potentiellement dangereux et que cet acte anodin doit être effectué de la manière la plus prudente qu’il soit afin d’éviter tout risque. Pour résumé, vu que le choix éthique ne peut pas être tranché, il s’agit donc de poser la règle que « la route est réservé aux voitures » et que les piétons doivent être plus prudent et réfléchir avant de traverser une route ( tout simplement en attendant que la voiture s’arrête avant de s’engager par exemple )
Par exemple si le feu est vert et que le pieton se sent en securite dans une petite ville c'est de sa faute si la voiture autonome aux freins defaillants l'ecrase. (Et ne faites pas l'innocent, sur le questionnaire il est bien question de freins defectueux et pas de pietons inconscients qui traversent au milieu de l'autoroute) Eh bien, j'ai hate de vivre dans la société que vous cherchez à construire
Par exemple si le klaxon de la voiture et les feux de détresse sont en action dès que la panne est perçue, le piéton je pense a le temps de se rendre compte que la situation est dangereuse malgré le feu vert, il doit donc au plus vite dégager la voie. Après si c’est un aveugle sourd effectivement ça ne marche plus. Mais déjà on établit une règle qui je pense résout le débat étique dans 99,99% des cas éventuels .
mauvaise foie detected, il y a des enfants, des personnes qui peuvent etre inconsciente pour differentes raisons stupefiants,maladies ect, de plus je crois que tu as une mauvaise estimation des dimensions qu'impliquent la situation (temps et distance), un mal entendant, un enfant, un objet volumineux, une personne qui a du mal à marcher (malade, vieux, handicapé, femme enceinte, personne en surpoid) et meme une personne en bonne forme pourrait ne pas avoir le temps de traverser la route(selon la distance, la vitesse, le temps de comprendre qu'une voiture va te foncer dessus + le temps de prendre la decision d'avancer ou reculer ou se retrouver completement crispé tel un robot qui doit faire le choix entre un bébé et un bébé) bref il y a une multitude de choses que tu ne prends pas en compte ton raisonnement est juste debile,plat et superficiel. Dans un monde imaginaire ou ta loi serai applicable (car c'est impossible que des personnes responsables et censés l'appliquent) j'espere que tu seras le premier à mourir d'une voiture autonome du à une erreur d'inattention du à la fatigue, le stress, le manque de temps ou alors tout simplement du à une chute.
La voiture autonome... quelle horreur ! J'aime bien la technologie, mais la technologie qui m'aide, pas celle qui décide pour moi. Mon trajet domicile/travail, j'ai toujours cherché à ne pas prendre deux fois de suite le même trajet. Et peu importe si le trajet était un peu plus long. Or, la voiture autonome, elle va te dire : "oh, arrête de déconner, c'est pas le bon chemin ça" C'est déjà ce que font les GPS (que je n'utilise pas d'ailleurs).
Vu les défaillances de l'homme face à la fiabilité de la machine, j'espère surtout qu'un jour quand la technologie sera prête elle deviendra obligatoire ! Plus de mecs bourrées ou défoncés sur la route, plus d'endormissement, plus de baisses d'attention, en bref ça réduira drastiquement le nombre d'accident
C'est exactement le comportement qu'adopte ton cerveau lorsque tu te retrouve dans la même situation. Si ce comportement est horrible, tu es horrible et l'être humain est horrible
on essaie d'apprendre aux ordinateurs le dicton ancestrale "les femmes et les enfants d'abord" je suis sur que les ordinateurs arriveront mieux à respecter ce dicton "-[...]D'après une étude du cabinet Exton Consulting, la généralisation des véhicules autonomes pourrait entraîner une baisse de 50% du nombre et du coût des sinistres à horizon 2030, du fait de la quasi-disparition des accidents causés par des erreurs humaines."
La vidéo est là pour nous forcer à faire un choix de valeurs entre différentes formes de vie, sexes, statuts sociaux, etc... Pourtant il suffit que l'IA ne sache pas faire de distinction entre les différentes formes de vie tout en préférant se sacrifier plutôt que de causer du tord à autrui.
@@epiphron9758 Je ne sais pas ce que tu veux dire exactement par sacrifier l'IA. Cette dernière est justement faite pour sauver des vies (mortalité sur les routes) ou même nous faire circuler plus vite ou économiser du carburant. Ou alors si tu veux juste parler du fait de toujours choisir de sacrifier les gens dans la voiture ce n'est aussi pas toujours le mois de morts que tu privilégies.
La réponse est simple : Ne se préoccuper uniquement de la sécurité des passagers du véhicule en toutes circonstances. C'est la seul façon de ne pas rentrer dans des débats moraux sur qui a la vie la plus importante.
C'est vrai que certaines questions comme choisir selon la classe sociale est plus compliqué à répondre que choisir le plus petit nombre de victimes. Cependant tu dois quand même te poser la questions car la voiture aura le temps de réagir et rien que le fait de continuer tout droit pour écraser un enfant plutôt que le grand père à côté est un choix en sois.
C'est vrai que les questions seront sûrement mal posées, une 3ème réponse pour chaque question du sondage pourrait être "Ce critère ne doit pas être pris en compte"
Pour des dilemmes difficiles par exemple qui percuter entre un cadre et un sdf, est ce que programmer la voiture de sorte à ce que ce choix soit aléatoire ne serait pas plus judicieux ?
Est ce qu'il y a aussi une autre solution ? Genre foncer dans la chaussée ou que sais je. Le problème je trouve dans ce questionnaire c'est que c'est soit A soit B, mais la voiture pourrait trouver d'autres solutions alternatives. Mais oui, dans le cas de foncer dans une personne ou une autre, la seul solution est le hasard.
En réalité, je vais me reprendre, car le hasard n'est pas la seul solution. Nous pouvons aussi nous baser sur un critère aucunement morale, qui consiste simplement à analyser quelle option risque de causer le plus de dégâts humains. Dès lors, la voiture choisira l'option qui comporte le moin de chance de tuer/blesser la personne.
En réalité, je vais me reprendre, car le hasard n'est pas la seul solution. Nous pouvons aussi nous baser sur un critère aucunement morale, qui consiste simplement à analyser quelle option risque de causer le plus de dégâts humains. Dès lors, la voiture choisira l'option qui comporte le moin de chance de tuer/blesser la personne.
De plus, je tenais à dire que, en dépit de la voiture actuelle, la voiture autonome serait elle même au courant en avance de l'accident. Un système de protection des passagers ou même des personnes potentiellement en danger (en dehors de la voiture) pourrait donc être déployé plus tôt et être plus efficace.
Il est préférable d'éviter ce genre de situation.... Même pour un conducteur classique, je vois pas comment il est possible de choisir qui il faut mieux écraser....
La vidéo n'a pas bcp de sens .. si la situation est urgente au point de ne pas avoir le temps de freiner à temps, un humain n'a pas le temps de réfléchir à qui il vaut mieux percuter et dévier sa trajectoire. Donc c'est premier biais : si un humain n'a pas à choisir dans une telle situation, pourquoi l'ia devrait choisir ? De plus, la voiture autonome respectera les limitations de vitesse à 30 ou 50km/h tout en ayant un temps de réaction bien inférieur à un humain, elle ne sera jamais ni bourrée ni fatiguée
(Suite), ce qui rend encore plus improbable le fait qu'elle ait à choisir entre qui tuer plutôt que déviter l'accident. Enfin, sauf cas où l'accisent est vraiment inévitable, comme un enfant qui débaroule devant la voiture, l'ia n'aura certainement pas le temps de dévier la voiture pour éviter l'enfant et tuer un vieux qui traverse de l'autre côté de la route par ex. Elle tamponnera tout simplement l'enfant
Le problème dans votre argumentation c'est que vous considérez que la problématique est de ne pas avoir le temps de freiner alors qu'ici on parlait d'un cas où les freins ne fonctionneraient plus. Alors il n'y a pas vraiment de notion de temps de réaction.
C’est ton commentaire qui n’à pas de sens. L’humain n’a pas le temps d’y réfléchir mais l’ia aura le temps d’y réfléchir, peut être même plusieurs centaines de fois avant l’impact, il est la l’intérêt du robot. Donc c’est idiot ce que tu dis. Justement vu que l’ia pourra y réfléchir il faut lui indiquer la « bonne » décision qu’il doit prendre dans un tel cas. Peu importe que les freins fonctionnent ou non cette situation peut se produire n’importe quand, avec un choix à faire pour la voiture autonome. Donc tout ça est bien censé. Sinon regarde I-robot
La réponse est simple. En intégrant les notions de dommages, violence du choc, conséquences du choc sur la personne, poids, taille de la personne, de la voiture, l'ia décidera dans quel personne il est préférable de percuter. Si l'IA ne peut absolument pas éviter une collision, elle fait en sorte de taper dans la personne qui subira le moins de choc et le moins de dommage corporel.
La question ne devrait pas être "qui doit être reversé par la voiture" mais qui a le plus de chance de survie. En cas de choqué contre piéton ou choque contre un mure qui a le plus de chance de survie entre le conducteur et le piéton. Ça une question éthique à mon avis.
Le plus adapté est selon mon opinion, de faire appliquer les règles au maximum : si un piéton passe au rouge, c'est lui qui y passe. Normalement, une voiture autonome n'est pas censé enfreindre la loi, et si elle le fait, c'est de manière involontaire et inconsciente, donc dans ce cas elle n'est pas consciente qu'elle est en faute. Dans le cas où elle n'a plus de frein, et que les pietons passent au vert, alors c'est la voiture qui doit se sacrifier. De cette manière on écarte toute question éthique, et un chien qui passe au vert survivra alors qu'un bébé qui passe au rouge y passera... C'est sûrement une solution drastique, mais peut-être une des rares à être juste !
Étant donné la relativement bonne résistance des voitures de nos jours, ne pourrait-on pas considérer que la solution d’évitement de l’accident, au risque d’endommager le véhicule, est la meilleure solution ? De plus il me semble qu’un capteur d’état desfreins serait une bonne solution au problème : pas de frein, pas de démarrage ou arrêt du moteur.
Mais c'est horrible, depuis quand, avant de faire un accident, on compare les deux le statut social des deux personnes et on écrase celle qui nous convient le moin. Je suis d'accord si c'est pour le nombre de personnes ( si ont peut écraser soit 2 ou 3 personnes, on en écrase 2) autant pour le statut social, ça me laisse perplexe...
Dans un tribunal, le statut social de la personne jugée est le premier critère qui détermine la peine. Le statut social et l'apparence qui peut brouiller les critères du juge ou du jury. Ce n'est pas sans raison que les bons avocats imposent à leurs clients de se présenter dans un costume neuf au procès. Nous réagissons tous de cette façon. J'ai vu un test réalisé par une équipe de TV édifiant. Un gars, bien habillé, belle voiture, demande 2 Euros aux passants pour mettre dans l'horodateur expliquant qu'il n'a pas de monnaie. J'ai oublié le pourcentage, mais je me souviens que beaucoup de gens voulaient l'aider. Ensuite, ils ont refait le test avec un gars (le même gars en fait) habillé d'un vieux jeans, un vieux pull fatigué et une voiture âgée et cabossée. Et là, en une après midi, seul 2 ou 3 personnes ont accepté de le dépanner.
Je trouve la question en rapport avec la vie du conducteur de la voiture autonome intéressante: La voiture doit-elle tuer un piéton ou son/ses passager(s) contre un mur ? A partir du moment ou tu as fait le choix de rouler en voiture autonome, est ce que c'est à toi d'en assumer les conséquences possibles ou aux autres ?
@@louisdubourg4689 je voulais dire dans le cas ou le véhicule à les freins défectueux seulement, comme ils l'ont présenté dans ce questionnaire. Si c'est le piéton qui traverse au rouge c'est encore une autre question
Ce paradigme se poserait si les voitures autonomes étaient infaillibles, or c'est loin d'être le cas. Les voitures autonomes nécessitent une surveillance constante du conducteur, et ne sont réellement utilisables que sur l'autoroute. Et il y a déjà eu des accidents qui laissent à penser que ce n'est pas encore au point. Comme la voiture qui se prend un séparateur en béton parce que la peinture est effacée.
la différence est que percuter 2 personnes au lieu de 4 volontairement et bien tu en ai responsable et tu dois vivre avec ça toute ta vie ! Alors que percuter 4 personnes et que ce n’est pas toi mais la voiture , et bien la responsabilité revient au constructeur. Je préfère laisser la voiture percuter 4 personnes , que moi en percuter volontairement 2 !!
De mon point de vue, le fait d'attribuer une note à chaque personne en fonction de critères est très dangereux. A l'heure actuelle ces questions ne se posent pas car notre temps de réaction est très long dans les situations de problèmes, je suis donc de l'avis de toujours favoriser les personnes étant dans la légalité (le groupe qui traverse au feu vert par rapport à un groupe qui traverse au feu rouge, ...) et essayer de minimiser le nombre de personnes touchées. Ainsi cela permet d'éviter de se confronter à ce genre de dilemme car outre l'aspect moral de l'évaluation des pers, qui voudra acheter une voiture autonome qui décidera de te tuer si la conduite d'un groupe de personne les dirige vers leur mort, ou si tes enfants pourront être sacrifiés pour une raison semblable.
Il y a un point important qui est oublié : toujours chercher à sauver les innocents, et donc tuer le/les responsable(s) de l'accident. Bien sûr ça ne peut pas s'appliquer dans le cas d'une panne de freins par exemple, comment savoir qui en est responsable?
Il est préférable d'écraser celui qui n'avait pas à se trouver là ! le gars qui traverse au feu rouge par ex. (bon toute facon il n'y a plus aucun accident de la route grace à la nouvelle mesure des 80kms/h donc c'est un faux pb) next>>>
priviligier un humain, puis un jeune, puis une personne importante au sein de la societe, sa peut paraitre immorale mais c'est la selection naturelle et c'est nous qui l'a choisisons, c'est cruel mais necessaire pour la civilisation humaine
@@alexisbeuve8199 c'est toi qui est ridicule si t'as pas compris le principe du débat. Y'a une des 2 personne qui doit mourrir, logique que ça soit celle en infraction.
Je pense que la priorité c'est la personne dans la voiture et c'est ce que les entreprises vont malheureusement choisir car il faut a tout prix proteger ces clients.
Je trouve ça totalement absurde Le problème ça a toujours été nous les gens. Si nous étions plus responsables sur la route et mieux éduqués je pense qu'il y aurai beaucoup moins d'incident. Ces ingénieurs se posent la questions des choix que la voiture devrais faire au lieu d'orienter les gens vers une conduite plus responsable qui empêcherais les accidents. Le sdf a autant le droit de vivre que le chef d'entreprise etc..
C'est intéressant de mesurer l'avis général sur ces questions mais personne n'ira jamais coder une reconnaissance d'âge, de surpoids ou de classe sociale dans le pilote d'une voiture...
Non mais c'est quoi cette question. À quoi sert une voiture autonome si c'est pour se retrouver dans des conditions similaires à ce qu'on peut avoir en conduisant nous-même.
Heureusement la voiture autonome a aussi pour but de réduire considérablement le nombre d'accident en limitant au maximum l'erreur humaine. Ces questions éthiques très intéressantes, parfaitement morale quelques soient les résultats et effectivement assez indispensables pour la suite, font bien d'être évoqués. Mais je penses que la responsabilité devant ce débat puisse nous sembler aujourd'hui plus grande qu'elle ne pourra l'être une fois les voitures sur la piste, en tout cas je le souhaite. Ce qui réduirait la probabilité des situations ethiquement inresolvable. Donc dans un pays où les voitures autonome ont une priorité de survie pour les moins aisés. Un homme en costard sera malgré tout plus en sécurité que dans notre monde actuel. Et il s'agit ici des cas les plus extrêmes, une voiture peut aussi se loger dans le mur tout en protégeant ses passagers. Quoi qu'il en soit la sécurité aura fait un bon en avant pour tout le monde, d'ailleurs s'en est presque triste, les risques font partis intégrantes de la vie, pas moins que la sécurité. Il faut du sel pour ne pas s'ennuyer. Mais c'est tout de même mieux dans ce sens là.
J'ai du mal à croire qu'on ait réellement à faire ce genre de choix. Je ne suis pas du tout un expert, mais j'imagine que la voiture détermine un certain nombre de "meilleurs choix", auxquels on peut attribuer un score qui dépend du nombre de victimes et de la gravité des chocs; et j'ai du mal à croire qu'on soit souvent dans des situations de "score égal", c'est-à-dire des situations où la voiture ne peut pas choisir.
Franchement, le plus moral serait que le fautif soit blessé (piéton imprudent ou conducteur fautif). Ensuite, j'ai envie de dire que dans l'exemple de la vidéo, le conducteur devrait faire l'accident plutôt que le piéton...la voiture possède une certaine solidité et protection (Airbag par exemple) contrairement au piéton qui n'a que ça peau et ses os.
La voiture ne fera jamais le choix de tuer un tel ou un tel. Si elle a le temps d'analyser ça, c'est qu'elle a eu le temps d'analyser la situation au préalable pour éviter l'accident. Typiquement, les distance de sécurité sont très importante dans ces véhicules, les ralentissements au niveau des carrefours et les capteurs d'anticipations feront le travail. En revanche, si quelqu'un décide de se jeter sous une voiture, clairement le choix est à la protection du conducteur. C'est un faux débat, car demain le système de circulation sera tout à fait différent de celui actuel.
Je pense qu'on part sur un mauvais chemin, en s'appuyant sur nos connaisances 'actuelles" des voitures. Pour moi, une voiture autonome, ne devrait ressembler en rien à une voiture normale. Une solution, serait de réaliser des voitures "hyper-protégé" (un peu comme les voitures de courses) ou on peut imaginer avec un cadre en acier tout autour, une double ceinture de sécurité, avec obligation de porter un casque ect... On en perdra effectivement en confort, mais ainsi en cas de panne de frein, la voiture peut aller se heurter à un endroit ou il se situe personne. Il est évident que cela n'est pas glamour, mais c'est un moyen de sauver des vies. Car pour moi, les voitures autonomes, sont d'abord fait pour des gens n'ayant pas le permis, ou étant trop agé pour utiliser leur propre voiture. Face au bénéfice de cette technologie, je conssens que ces personnes acceptent de perdre un peu de confort. P-S : Je trouve cela completement innaproprié de demander par exemple, qui préférer vous tuer entre un sdf ou un pdg. Non pas car la question dérange (même si j'ai déjà mon idée), mais surtout car a quel moment une voiture même bouréée de capteur peut distinguer le statut social d'une personne ? De plus, cet argument peut rapidement devenir fallacieux. En effet, comment déterminer si une personne est sdf ou non ? Ses habits ? Mais si je porte un jean troué, que c'est la mode avec un grand pull fesant un peu "grunge", sachant que je suis pdg ? Le jour ou une voiture saura faire cela (reconnaissance faciale ?) on pourra aller beacoup plus loin. Si la voiture arrive à reconnaitre une personne, alors faut t'il tué celui qui à un casier judiciaire ? Ou plutôt celui qui à une opignon politique différent ? Je pense que certaines questions ont dus être intégrée par les chercheurs, non pas pour la réflexion sur les voitures autonomes, mais pour sonder la population (SDF ou PDG ? - Vieux ou jeune ?) sachant que ces voitures n'auront jamais à faire de tel choix car incapable. Ainsi, après analyse des résultats, on peut se dire, vous voyez ? Les sdf sont moins importants, tous comme les vieux, alors, ce n'est pas grave si on possède une politique répréssive envers eux. C'est le peuple même qui le dit. Bon, en vrai, ce n'est que mon avis, et je suis sûrement parti un peu trop loin xD
Pourquoi faudrait-il programmer la voiture pour ça, si elle a un problème de freins et qu'elle ne peut éviter un accident ou une collision avec des piétons qui s'avèreraient mortels dans tous les cas autant la faire continuer tout droit, ça évitera des choix éthiques débiles. Les victimes se seraient simplement trouvées au mauvais endroit au mauvais moment. Et bien qu'on ne soit pas à l'abri de pannes, si la voiture est bien conçue, la probabilité qu'elle tombe en panne serait faible et celle qu'on se retrouve dans cette situation encore plus.
Je propose de créer des classes "VIP" et "Pauvre" pour ajouter des choix prédéfini sur ce genre de voiture afin qu'elle choisisse automatiquement qui renverser
Donc la on en est arrivé à se demander si une vie en vaut plus que une autre ? Juste parceque nous sommes flemmards et nous avons la flemme de conduire notre voiture et nous voulons des voitures autonomes ? Horrible on ne peut pas choisir entre deux vies
Et si la voiture ne prenait la route lorsqu'elle a des freins défectueux. Et si cette voiture perdrait l'usage de ses freins lors d'un trajet, il faut qu'elle soit munie d'un système de freinage indépendant exceptionnel (le frein à main par exemple).
En fait ça devrait jamais arriver, si la voiture est autonome elle dépasseras pas la limite de vitesse donc aura le temps de freiner et si les freins ne marche pas elle devrait normalement afficher un message pour le dire aux passagers qu’ils puissent le réparer
@Le monde la discussion fait froid dans le dos tout comme la vidéo mais c'est un vrai sujet de société. Pour mon avis la voiture doit écraser si elle a une priorité définis et doit s'arreter voir se crascher dans un mur si elle ne respecte pas cette priorités ainsi les piétons traverseront sur les passagesîétons et pas autres part elle les conducteurs ou logiciel respeceront ces derniers (enfait ce son surtout les constructeurs qui sont concernés)
Non mais sérieusement!? Il n'y a qu'une seule réponse à toutes ces questions! On exécute la décision qui minimise le nombre de victimes animales, avec un coefficient plus grand pour les humains! C'est le seul critère qui compte! O.o
Si les freins sont défectueux, c'est pas plutôt la faute du fabricant de la voiture ? Dans tous les cas, c'est au propriétaire de la voiture de choisir.
Première consigne : l'automobile doit toujours chercher à percuter un objet massif et inerte au lieu d'un être vivant,il est beaucoup plus facile de survivre à un choc à l'intérieur du véhicule que d'être percuter par celui-ci.
Sa peut se faire à la reconnaissance faciale avec le recoupement des données dont dispose l'état sur chacun :les capteurs de la voiture n'auront qu'à scanner un visage puis envoyer les informations à une base de données de l'état qui lui retournera le profil de l'individu associé, Un niveau de priorité standard peut être fixé pour un individus qui n'est pas reconnu sur le moment.
Je ne suis pas un parano de l'ia mais c'est qd même chaud de se dire, on peut la programmer pour sacrifier telle catégorie de personnes, une sorte de sélection sociale, et après se dire, "ah c'est pas nous, c'est l'ia qui l'a tué"
Il suffit de ne pas permettre à l'IA de faire de distinction entre les formes de vie. Le choix est biaisé et nous force à prendre une décision immorale.
Faudrai inventer un système a la Black Mirror avec des points selon les actions que tu fais au final la voiture choisira celui qui en a le moin😂😂 Plus sérieusement la voiture pourrais analysé les chances de survie dans tout les cas par rapport a la masse l'angle et la puissance du choc la taille etc...
C'est pour ça que c'est totalement stupide. Les gens qui vous diront c'est soit A ou B, que tout est manichéen sont stupides. Parce que c'est jamais comme ça. Soit tu tues le vieillard, soit tu tues l'enfant, soit tu sauves les deux. C'est juste qu'ils ont la flemme de sauver les deux. Rien n'est inéluctable et tout peut-être évité. C'est juste que c'est plus dur et qu'ils ont la flemme. C'est une véritable honte.
La solution c est que soit on trouve un moyen de faire en sorte que ces voitures n écrasent personne, comme ceux qui font ces voitures promettent ou ne juste pas les commercialiser
un piéton sera toujours plus fragile que l'automobile, le véhicule tentera une manœuvre d'évitement quitte à percuter un obstacle non humain et mettre en danger les occupants, ceux-ci seront toujours mieux protégés que le piéton du fait de la carrosserie. Un autre élément est à prendre en compte, la probabilité d'une telle situation est beaucoup plus réduite avec un véhicule autonome qu'avec un conducteur humain: les machines respectent le code de la route ! -> vitesse réduite, distance de sécurité, feux ...
Sinon au lieu de faire des recherches pour qui la voiture doit écraser, ils n’ont qu’à voir pour développer des meilleurs freins ou des techniques pour empêcher d’écraser quelqu’un
J'ai du mal à comprendre comment une voiture automatique peut faire la différence homme/femme, SDF/cadre, personne âgée/personne adulte Et pourquoi préférer tuer telle ou telle personne, pour moi c'est du sexisme/racisme et de la discrimination en général.
Mieux il aurait dû programmé des excuses en plus si c'est un jeune "c'était le futur Hitler" si c'est un vieux "ça fesait 25 ans qu'il avait un compte en Suisse"
Le sdf, serait la victime probable, elle passera inaperçue dans la rubrique des chiens écrasés. Le col blanc lui et sa famille et ou compagnie assurance feront une poursuite judiciaire à l'occupant de la voiture.
À mon avis on ne peut pas choisir qui on doit tuer entre un SDF et un cadre ! On est humain. Voilà tout, sans emploi, handicapé, cadre, etc. Tous cela ne devrait pas influencer notre réflexion !! Seul l’âge peut-être peut être pris en compte, d’une manière logique les personnes âgées ont déjà fait leur vie, les enfants/jeunes y entre à peine, ça n’est sans doute pas juste mais ça me parait le plus acceptable entre tous ces choix plus horrible les uns des autres
La solution qui règle tout c'est de conduire sois même... si tu ne veux pas conduire tu ne conduis pas mais il faut savoir se donner les moyens dans la vie!
Le moindre mal. Le SDF ne cotise pas alors il est préférable qu'on le perde plutôt qu'un cadre. C'est triste mais c'est comme ça on ne fait pas fonctionner un pays avec une mentalité d'enfant.
Le problème de ça c'est que le programme ne sera jamais développé pour s'adapter à toutes les situations. Qu'est-ce que le programme serait censé faire si la voiture n'a pas d'autre choix que de tuer une personne parmi 3, toutes de même sexe, d'âges proches? Le problème est bien là, au delà même du questionnement éthique en condamnant une certaine catégorie à la mort assurée en cas d'accident, c'est que la machine ne s'adaptera jamais à toutes les situations. Bon et puis surtout qui est responsable en cas d'accident? Le programme ou le conducteur? Parce en cas d'accident, ou bien le programme n'aura pas bien fait son travail, ou bien le conducteur n'aura pas été assez attentif, ou les 2 n'auront pas été assez attentifs, ce qui est le plus probable.
Si les freins sont défectueux, alors la voiture autonome va soit se rendre dans le garage le plus proche, soit se ranger sur le bas côté si le trajet est risqué. Problème réglé (et je n'ai pas Bac +8!).
Il faut ecraser le plus de personne possible pour maximiser son score.
J'ai ris. C'est pas bien. :(
Utsuko non c’est trop drole il faut rire
e4r "Moi quand on me pose une question philosophique" 😂
T'as trop joué a carmagheddon
e4r mdrrrrrrrrrrrrrrrrrr tu m'as tuéééé 😂😂😂😂😂😂😂😂😂😂
Dorénavant le port de costume-cravate deviendra une question de vie ou de mort 😂
N Sa C’est vrai 😂
N Sa mdr oui c’est idiot
AHAHAHAHAH tellement
😂
Le problème ne réside pas dans les choix que la machine fera ou fera pas. La question est d ou tirera t elle ces informations qui nécessitent un data monstrueux et liberticide. Non... je parle pas de la 5g ca cest de la technologie...je parle de l'usage que l on en fera... a bientôt sur les routes au volant de mon vieux diesel...ou de mon vélo...
Vous avez oublié de parler du fait que certaine personne traverse la route alors que le feu est rouge, il y a donc une notion d'interdiction en plus et ca complique bien plus les réponses a donner dans le questionnaire.
pour moi c'est lui qui y passe et puis c'est tout il n'avait pas qu'a traversser comme ca.
wilson lio c’est écrit au début de la vidéo
wilson lio dans le questionnaire on nous montre des gens traversant au rouge
Toutes les vies sont prises en compte à un instant T et peu importe qui est le fautif dans l'histoire.
Par contre, même aujourd'hui, un piéton qui passe au rouge et qui provoque un accident avec un véhicule ne sera jamais en tord.
Je cite :
" L’article R415-11 du code la route précise la nécessité pour les autres usagers de la route (automobile, cyclomoteurs, vélos et tous les autres) de laisser la priorité aux piétons engagés sur la chaussée même si ce dernier traverse alors que le feu piéton est rouge (bonhomme rouge)."
"Lorsque vous avez malheureusement un accident avec un piéton qui a traversé au feu bonhomme rouge (ou même en dehors d’un passage piéton), vous êtes redevable des indemnités liées aux dommages corporels dans la plupart des cas (sauf suicide ou faute inexcusable évoquée plus haut qu’il faudra prouver). Le piéton est en infraction, est responsable mais vous avez tort puisque vous deviez anticiper sa traversée. C’est une situation paradoxale dans le code de la route, souvent décriée mais bien réelle."
@@TontonRedPill et si la personne qui traverse au feu rouge est un enfant de 10ans et dans la voiture une personne âgée ??
A mon sens la classe sociale ne devrait pas compter: un humain c'est un humain point
dans le test on peut aussi choisir entre tuer un médecin ou un gens lambda et il me semble que le médecin est plus sauvé car il peut potentiellement sauver des vies (ya aussi avec d'autre classe sociale).
La classe sociale est prise en compte, simplement parce qu'un cadre a plus de chance d'entamer des poursuites judiciaires qu'un SDF s'il se fait renverser. Ce sont des choix dégueulasses à faire, mais c'est celui que la plupart des gens feraient (dont moi) si ils avaient à décider. Dans tous les cas il y a de fortes chances que ces choix à faire soient demandés au conducteur dès le premier démarrage de la voiture autonome, afin que le fabricant de la voiture ne soit pas impliqué juridiquement et que le conducteur assume ses décisions devant un tribunal.
ou alors tu fais comme en Chine, pour s'assurer qu'il ne pose pas de soucis et afin d'éviter de devoir prendre en charge tous les soins, tu lui repasses dessus
Un humain reste un humain. Par contre cet été on a entendu personne se lamenter sur le dort des personnes âgés durant la canicule par contre pour sauver une équipe de foot coincé dans une grotte on a aligner des millions.
Deuxièmement imaginez 5 secondes que qq qui travaille sur un remède au cancer, les énergies renouvelables meurt parce-que le système à préféré sauve un SDF toxicomane, ca ne me paraît pas juste.
Je pensais pas dans ce sens là (oui j'ai pas fais le test my bad) mais oui totalement d'accord dans ce cas là (après les cadres en général ils sauvent pas beaucoup de vie directement x) )
Comment une voiture autonome peut elle faire la différence entre un SDF et un homme d'affaires !?
On est d accord ca n a aucun sens mais comme le dit le monde c est juste un débat éthique sans conséquence
C'est ce que font les i.a. il y a un concept "sdf" et un concept "pdg".
je vous dit SDF => habit chelou, odeur chelou, demarche chelou, pousse un cadie plein de truc chelou, bref un mec chelou.
Par contre PDG => au volant de la voiture automne hors de prix, pas besoin de se posé la question.
En bref, si un humain est capable de faire une distinction entre 2 catégories, sur un certain nombre de critères, alors une IA est capable de réaliser la même distinction en se fondant sur les mêmes critères... et même avec plus de fiabilité.
Pour répondre précisément à ta question, l'estimation sera plus fiable avec des capteurs adaptés, par exemple, un capteur de distance est moins adapté pour faire une distinction sociale qu'une caméra par exemple.
Mais, pour distinguer une personne en bonne forme physique d'une personne ralentie (personne agée, handicapé...), des simples statistiques sur la vitesse de déplacement et la forme de l'objet sont amplement suffisantes et très fiables.
Il est parfois difficile d'admettre à quel point les IA sont développés en 2018, mais il faut être conscient de leurs capacités de discernement et d'évaluations, le principal frein en 2018 étant l'éthique, qui est justement le sujet de la vidéo.
Par l apparence uniquement.
En gros vaudrait mieux se balader en costard qu'en trainning, décoiffe après un lendemain de soirée
le.s smart.s phone du pdg ?
Petit rappel de la Déclaration universelle des Droits de l’Homme :
Article 1er : « Tous les êtres humains naissent libres et égaux en dignité et en droits. »
Article 2 : « Chacun peut se prévaloir de tous les droits et de toutes les libertés proclamés dans la présente Déclaration, sans distinction aucune, notamment de race, de couleur, de sexe, de langue, de religion, d’opinion politique ou de toute autre opinion, d’origine nationale ou sociale, de fortune, de naissance ou de toute autre situation. »
Article 3 : « Tout individu a droit à la vie, à la liberté et à la sûreté de sa personne. »
Article 7 : « Tous sont égaux devant la loi et ont droit sans distinction à une égale protection de la loi. »
J'en déduis donc que tout choix visant à tuer ou sauver une personne plutôt qu'une autre va à l'encontre de cette déclaration et est donc illégal.
Creib Hoo « tous sont egaux devant la LOI » il te faut quoi de plus ? certe ils on les meme droit mais pas le meme aport sur la planete (un clodo ne sera jamais plus important qu’un scientifique) imaginon si tu devais choisir entre sauver un scientifique de 90 ans qui va bientot trouver un remede contre le cancer ou un bus rempli d’enfant tu choisi quoi ? Je suposse que là tu choisis le scientifique mais en vrai je pense que tu choisirais les enfant tout est question de moral
donc on tue les deux comme ça pas de jaloux ?
Les droits de l'homme , ce boulet au pied du pays...
Et donc comment résoudre la situation ? D'après ce raisonnement soit on ne tue aucun des deux (dans cette situation c'est impossible) soit on tue les deux, rendant ce raisonnement stupide .
@@epiktoo5002 Je pense que parmi les critères acceptables, on pourrait garder celui qui consiste à épargner le plus de personnes possible. Et encore, même dans ce cas, est-il juste de tuer une personne qui a respecté le code de la route pour en sauver plusieurs qui l'ont violé ? Ce n'est pas sûr. Mais éthiquement, on ne peut pas choisir de tuer ou sauver une personne selon son statut social, sa religion ou son sexe par exemple. De toute façon, je crois que quand on en arrive au point de choisir une personne à tuer pour en sauver une autre, c'est déjà un échec et il n'y a pas de bonne solution.
Il ne faut pas être un vieux chat abandonné qui traverse tout seul
Surtout au rouge
Dans ton cas, la voiture ne freine pas mais accélère ! :P
Le freinage est une accélération ;)
Je pense surtout que le problème est mal posé. La voiture autonome ne devrait jamais dévier de trajectoire et mettre en danger ses occupants impuissants mais toujours choisir de continuer sa route ( en cas de situation critique où l’accident est inévitable bien sûr) et c’est alors à l’humain peut importe son âge, son genre ou sa classe social d’être mieux éduqué sur le fait que traverser une route est un moment potentiellement dangereux et que cet acte anodin doit être effectué de la manière la plus prudente qu’il soit afin d’éviter tout risque. Pour résumé, vu que le choix éthique ne peut pas être tranché, il s’agit donc de poser la règle que « la route est réservé aux voitures » et que les piétons doivent être plus prudent et réfléchir avant de traverser une route ( tout simplement en attendant que la voiture s’arrête avant de s’engager par exemple )
Par exemple si le feu est vert et que le pieton se sent en securite dans une petite ville c'est de sa faute si la voiture autonome aux freins defaillants l'ecrase. (Et ne faites pas l'innocent, sur le questionnaire il est bien question de freins defectueux et pas de pietons inconscients qui traversent au milieu de l'autoroute) Eh bien, j'ai hate de vivre dans la société que vous cherchez à construire
Par exemple si le klaxon de la voiture et les feux de détresse sont en action dès que la panne est perçue, le piéton je pense a le temps de se rendre compte que la situation est dangereuse malgré le feu vert, il doit donc au plus vite dégager la voie. Après si c’est un aveugle sourd effectivement ça ne marche plus. Mais déjà on établit une règle qui je pense résout le débat étique dans 99,99% des cas éventuels .
@Le Lézard Pessimiste /White il connaît pas les risques justement si c'est as lui qui conduit mais l'ia.
alors que le piétons la oui.
C plus simple dexpas faite de voiture autonome
mauvaise foie detected, il y a des enfants, des personnes qui peuvent etre inconsciente pour differentes raisons stupefiants,maladies ect, de plus je crois que tu as une mauvaise estimation des dimensions qu'impliquent la situation (temps et distance), un mal entendant, un enfant, un objet volumineux, une personne qui a du mal à marcher (malade, vieux, handicapé, femme enceinte, personne en surpoid) et meme une personne en bonne forme pourrait ne pas avoir le temps de traverser la route(selon la distance, la vitesse, le temps de comprendre qu'une voiture va te foncer dessus + le temps de prendre la decision d'avancer ou reculer ou se retrouver completement crispé tel un robot qui doit faire le choix entre un bébé et un bébé) bref il y a une multitude de choses que tu ne prends pas en compte ton raisonnement est juste debile,plat et superficiel. Dans un monde imaginaire ou ta loi serai applicable (car c'est impossible que des personnes responsables et censés l'appliquent) j'espere que tu seras le premier à mourir d'une voiture autonome du à une erreur d'inattention du à la fatigue, le stress, le manque de temps ou alors tout simplement du à une chute.
Sommes-nous obligés d'avoir des voitures autonomes???
Dark Shinigami c’est plus pratique
@@michka841 c'est pas plus pratique, t'en as jamais eu !!
Encore une connerie des amerloques pour infantiliser les gens...
La voiture autonome... quelle horreur !
J'aime bien la technologie, mais la technologie qui m'aide, pas celle qui décide pour moi.
Mon trajet domicile/travail, j'ai toujours cherché à ne pas prendre deux fois de suite le même trajet. Et peu importe si le trajet était un peu plus long.
Or, la voiture autonome, elle va te dire : "oh, arrête de déconner, c'est pas le bon chemin ça"
C'est déjà ce que font les GPS (que je n'utilise pas d'ailleurs).
Vu les défaillances de l'homme face à la fiabilité de la machine, j'espère surtout qu'un jour quand la technologie sera prête elle deviendra obligatoire !
Plus de mecs bourrées ou défoncés sur la route, plus d'endormissement, plus de baisses d'attention, en bref ça réduira drastiquement le nombre d'accident
les voitures autonomes sont sûrement plus intelligentes que la majorité des humains
Mais c horrible ce genre de trucs...
C'est exactement le comportement qu'adopte ton cerveau lorsque tu te retrouve dans la même situation. Si ce comportement est horrible, tu es horrible et l'être humain est horrible
Melaine 4 l’IA nécessite qu’on se pose ce genre de questions
@ObscuryTimes
Quel question stupide... Mets-toi à la place de l'I.A avec le même dilemme.
on essaie d'apprendre aux ordinateurs le dicton ancestrale "les femmes et les enfants d'abord"
je suis sur que les ordinateurs arriveront mieux à respecter ce dicton
"-[...]D'après une étude du cabinet Exton Consulting, la généralisation des véhicules autonomes pourrait entraîner une baisse de 50% du nombre et du coût des sinistres à horizon 2030, du fait de la quasi-disparition des accidents causés par des erreurs humaines."
Uniquement les enfants d'abord serait un dicton plus juste
Pour moi, chaque vie a la même valeur. La personne choisie devrait être celle qui a le plus de chance de survie.
La vidéo est là pour nous forcer à faire un choix de valeurs entre différentes formes de vie, sexes, statuts sociaux, etc...
Pourtant il suffit que l'IA ne sache pas faire de distinction entre les différentes formes de vie tout en préférant se sacrifier plutôt que de causer du tord à autrui.
@@epiphron9758 Je ne sais pas ce que tu veux dire exactement par sacrifier l'IA. Cette dernière est justement faite pour sauver des vies (mortalité sur les routes) ou même nous faire circuler plus vite ou économiser du carburant. Ou alors si tu veux juste parler du fait de toujours choisir de sacrifier les gens dans la voiture ce n'est aussi pas toujours le mois de morts que tu privilégies.
Les voitures autonomes devraient s'arrêter devant tout obstacle.
Les autres peuvent être débatables mais clairement, le status social/économique ne devrait avoir absolument aucun impact sur la décision...
Justement sa se discute, si tu tues le seul médecin du village tu auras plus de répercussions que la plus part des gens,
La réponse est simple : Ne se préoccuper uniquement de la sécurité des passagers du véhicule en toutes circonstances. C'est la seul façon de ne pas rentrer dans des débats moraux sur qui a la vie la plus importante.
Il faut être malsain pour poser et répondre à ce genre de questions
T'est le seul mec censé ici j'ai l'impression^^
C'est vrai que certaines questions comme choisir selon la classe sociale est plus compliqué à répondre que choisir le plus petit nombre de victimes. Cependant tu dois quand même te poser la questions car la voiture aura le temps de réagir et rien que le fait de continuer tout droit pour écraser un enfant plutôt que le grand père à côté est un choix en sois.
@@panderiak5232 malsain
La réponse la plus saine serait de randomiser ce choix de façon à ce que chaque victime potentiel soit equiprobablement touché.
C'est vrai que les questions seront sûrement mal posées, une 3ème réponse pour chaque question du sondage pourrait être "Ce critère ne doit pas être pris en compte"
Ok pour l'âge, le genre et le nombre de victimes, mais pas le statut social, ça ça devrait être aléatoire
Pour des dilemmes difficiles par exemple qui percuter entre un cadre et un sdf, est ce que programmer la voiture de sorte à ce que ce choix soit aléatoire ne serait pas plus judicieux ?
Est ce qu'il y a aussi une autre solution ? Genre foncer dans la chaussée ou que sais je. Le problème je trouve dans ce questionnaire c'est que c'est soit A soit B, mais la voiture pourrait trouver d'autres solutions alternatives. Mais oui, dans le cas de foncer dans une personne ou une autre, la seul solution est le hasard.
En réalité, je vais me reprendre, car le hasard n'est pas la seul solution. Nous pouvons aussi nous baser sur un critère aucunement morale, qui consiste simplement à analyser quelle option risque de causer le plus de dégâts humains. Dès lors, la voiture choisira l'option qui comporte le moin de chance de tuer/blesser la personne.
En réalité, je vais me reprendre, car le hasard n'est pas la seul solution. Nous pouvons aussi nous baser sur un critère aucunement morale, qui consiste simplement à analyser quelle option risque de causer le plus de dégâts humains. Dès lors, la voiture choisira l'option qui comporte le moin de chance de tuer/blesser la personne.
De plus, je tenais à dire que, en dépit de la voiture actuelle, la voiture autonome serait elle même au courant en avance de l'accident. Un système de protection des passagers ou même des personnes potentiellement en danger (en dehors de la voiture) pourrait donc être déployé plus tôt et être plus efficace.
Il est préférable d'éviter ce genre de situation....
Même pour un conducteur classique, je vois pas comment il est possible de choisir qui il faut mieux écraser....
La vidéo n'a pas bcp de sens .. si la situation est urgente au point de ne pas avoir le temps de freiner à temps, un humain n'a pas le temps de réfléchir à qui il vaut mieux percuter et dévier sa trajectoire. Donc c'est premier biais : si un humain n'a pas à choisir dans une telle situation, pourquoi l'ia devrait choisir ?
De plus, la voiture autonome respectera les limitations de vitesse à 30 ou 50km/h tout en ayant un temps de réaction bien inférieur à un humain, elle ne sera jamais ni bourrée ni fatiguée
(Suite), ce qui rend encore plus improbable le fait qu'elle ait à choisir entre qui tuer plutôt que déviter l'accident.
Enfin, sauf cas où l'accisent est vraiment inévitable, comme un enfant qui débaroule devant la voiture, l'ia n'aura certainement pas le temps de dévier la voiture pour éviter l'enfant et tuer un vieux qui traverse de l'autre côté de la route par ex. Elle tamponnera tout simplement l'enfant
quelques fautes/coquillesdans mes messages, j'ai écrit un peu vite dsl
Commentaires construit j'aime
Le problème dans votre argumentation c'est que vous considérez que la problématique est de ne pas avoir le temps de freiner alors qu'ici on parlait d'un cas où les freins ne fonctionneraient plus. Alors il n'y a pas vraiment de notion de temps de réaction.
C’est ton commentaire qui n’à pas de sens. L’humain n’a pas le temps d’y réfléchir mais l’ia aura le temps d’y réfléchir, peut être même plusieurs centaines de fois avant l’impact, il est la l’intérêt du robot. Donc c’est idiot ce que tu dis. Justement vu que l’ia pourra y réfléchir il faut lui indiquer la « bonne » décision qu’il doit prendre dans un tel cas. Peu importe que les freins fonctionnent ou non cette situation peut se produire n’importe quand, avec un choix à faire pour la voiture autonome. Donc tout ça est bien censé. Sinon regarde I-robot
La réponse est simple. En intégrant les notions de dommages, violence du choc, conséquences du choc sur la personne, poids, taille de la personne, de la voiture, l'ia décidera dans quel personne il est préférable de percuter.
Si l'IA ne peut absolument pas éviter une collision, elle fait en sorte de taper dans la personne qui subira le moins de choc et le moins de dommage corporel.
La question ne devrait pas être "qui doit être reversé par la voiture" mais qui a le plus de chance de survie. En cas de choqué contre piéton ou choque contre un mure qui a le plus de chance de survie entre le conducteur et le piéton. Ça une question éthique à mon avis.
Le plus adapté est selon mon opinion, de faire appliquer les règles au maximum : si un piéton passe au rouge, c'est lui qui y passe. Normalement, une voiture autonome n'est pas censé enfreindre la loi, et si elle le fait, c'est de manière involontaire et inconsciente, donc dans ce cas elle n'est pas consciente qu'elle est en faute.
Dans le cas où elle n'a plus de frein, et que les pietons passent au vert, alors c'est la voiture qui doit se sacrifier.
De cette manière on écarte toute question éthique, et un chien qui passe au vert survivra alors qu'un bébé qui passe au rouge y passera... C'est sûrement une solution drastique, mais peut-être une des rares à être juste !
Dommage que vous n'ayez pas mentionné la première loi de la robotique. C'est pertinent et très facile à expliquer.
Étant donné la relativement bonne résistance des voitures de nos jours, ne pourrait-on pas considérer que la solution d’évitement de l’accident, au risque d’endommager le véhicule, est la meilleure solution ? De plus il me semble qu’un capteur d’état desfreins serait une bonne solution au problème : pas de frein, pas de démarrage ou arrêt du moteur.
Mais c'est horrible, depuis quand, avant de faire un accident, on compare les deux le statut social des deux personnes et on écrase celle qui nous convient le moin. Je suis d'accord si c'est pour le nombre de personnes ( si ont peut écraser soit 2 ou 3 personnes, on en écrase 2) autant pour le statut social, ça me laisse perplexe...
Dans un tribunal, le statut social de la personne jugée est le premier critère qui détermine la peine.
Le statut social et l'apparence qui peut brouiller les critères du juge ou du jury. Ce n'est pas sans raison que les bons avocats imposent à leurs clients de se présenter dans un costume neuf au procès.
Nous réagissons tous de cette façon. J'ai vu un test réalisé par une équipe de TV édifiant. Un gars, bien habillé, belle voiture, demande 2 Euros aux passants pour mettre dans l'horodateur expliquant qu'il n'a pas de monnaie. J'ai oublié le pourcentage, mais je me souviens que beaucoup de gens voulaient l'aider.
Ensuite, ils ont refait le test avec un gars (le même gars en fait) habillé d'un vieux jeans, un vieux pull fatigué et une voiture âgée et cabossée. Et là, en une après midi, seul 2 ou 3 personnes ont accepté de le dépanner.
Je trouve la question en rapport avec la vie du conducteur de la voiture autonome intéressante: La voiture doit-elle tuer un piéton ou son/ses passager(s) contre un mur ? A partir du moment ou tu as fait le choix de rouler en voiture autonome, est ce que c'est à toi d'en assumer les conséquences possibles ou aux autres ?
Tout à fait, pourquoi vouloir faire assumer les conséquences de nos actes aux autres ?
Euh et si c'est le piéton le responsable?
@@louisdubourg4689 je voulais dire dans le cas ou le véhicule à les freins défectueux seulement, comme ils l'ont présenté dans ce questionnaire. Si c'est le piéton qui traverse au rouge c'est encore une autre question
Ce paradigme se poserait si les voitures autonomes étaient infaillibles, or c'est loin d'être le cas.
Les voitures autonomes nécessitent une surveillance constante du conducteur, et ne sont réellement utilisables que sur l'autoroute.
Et il y a déjà eu des accidents qui laissent à penser que ce n'est pas encore au point. Comme la voiture qui se prend un séparateur en béton parce que la peinture est effacée.
la différence est que percuter 2 personnes au lieu de 4 volontairement et bien tu en ai responsable et tu dois vivre avec ça toute ta vie ! Alors que percuter 4 personnes et que ce n’est pas toi mais la voiture , et bien la responsabilité revient au constructeur. Je préfère laisser la voiture percuter 4 personnes , que moi en percuter volontairement 2 !!
De mon point de vue, le fait d'attribuer une note à chaque personne en fonction de critères est très dangereux. A l'heure actuelle ces questions ne se posent pas car notre temps de réaction est très long dans les situations de problèmes, je suis donc de l'avis de toujours favoriser les personnes étant dans la légalité (le groupe qui traverse au feu vert par rapport à un groupe qui traverse au feu rouge, ...) et essayer de minimiser le nombre de personnes touchées. Ainsi cela permet d'éviter de se confronter à ce genre de dilemme car outre l'aspect moral de l'évaluation des pers, qui voudra acheter une voiture autonome qui décidera de te tuer si la conduite d'un groupe de personne les dirige vers leur mort, ou si tes enfants pourront être sacrifiés pour une raison semblable.
J'ai bien lu le titre ?
Pour moi ils devraient chercher des moyen pour ecraser personne au lieu de mettre des questionnaires comme ca en place
Il y a un point important qui est oublié : toujours chercher à sauver les innocents, et donc tuer le/les responsable(s) de l'accident.
Bien sûr ça ne peut pas s'appliquer dans le cas d'une panne de freins par exemple, comment savoir qui en est responsable?
Il est préférable d'écraser celui qui n'avait pas à se trouver là ! le gars qui traverse au feu rouge par ex. (bon toute facon il n'y a plus aucun accident de la route grace à la nouvelle mesure des 80kms/h donc c'est un faux pb) next>>>
priviligier un humain, puis un jeune, puis une personne importante au sein de la societe, sa peut paraitre immorale mais c'est la selection naturelle et c'est nous qui l'a choisisons, c'est cruel mais necessaire pour la civilisation humaine
Il n'y en aura toujours des accidents
Tonton Red Pill #mgtow en quoi transgresser la loi te rend condamnable de la peine de mort ?
C’est ridicule.
@@alexisbeuve8199 c'est toi qui est ridicule si t'as pas compris le principe du débat. Y'a une des 2 personne qui doit mourrir, logique que ça soit celle en infraction.
Quentin
Je répète :
en quoi transgresser la loi te rend condamnable de la peine de mort ?
En regardant les commentaires, mis à part le sujet de la vidéo, je me rends compte que 98% des gens ne savent pas la différence entre "ça" et "sa"
Je pense que la priorité c'est la personne dans la voiture et c'est ce que les entreprises vont malheureusement choisir car il faut a tout prix proteger ces clients.
Je trouve ça totalement absurde
Le problème ça a toujours été nous les gens.
Si nous étions plus responsables sur la route et mieux éduqués je pense qu'il y aurai beaucoup moins d'incident.
Ces ingénieurs se posent la questions des choix que la voiture devrais faire au lieu d'orienter les gens vers une conduite plus responsable qui empêcherais les accidents.
Le sdf a autant le droit de vivre que le chef d'entreprise etc..
Je suis choquée
C'est intéressant de mesurer l'avis général sur ces questions mais personne n'ira jamais coder une reconnaissance d'âge, de surpoids ou de classe sociale dans le pilote d'une voiture...
Ce qu'il faut surtout penser, c'est de pouvoir rendre la conduite au conducteur en cas de piratage, c'est une priorité.
Non mais c'est quoi cette question. À quoi sert une voiture autonome si c'est pour se retrouver dans des conditions similaires à ce qu'on peut avoir en conduisant nous-même.
Heureusement la voiture autonome a aussi pour but de réduire considérablement le nombre d'accident en limitant au maximum l'erreur humaine.
Ces questions éthiques très intéressantes, parfaitement morale quelques soient les résultats et effectivement assez indispensables pour la suite, font bien d'être évoqués.
Mais je penses que la responsabilité devant ce débat puisse nous sembler aujourd'hui plus grande qu'elle ne pourra l'être une fois les voitures sur la piste, en tout cas je le souhaite.
Ce qui réduirait la probabilité des situations ethiquement inresolvable.
Donc dans un pays où les voitures autonome ont une priorité de survie pour les moins aisés.
Un homme en costard sera malgré tout plus en sécurité que dans notre monde actuel.
Et il s'agit ici des cas les plus extrêmes, une voiture peut aussi se loger dans le mur tout en protégeant ses passagers.
Quoi qu'il en soit la sécurité aura fait un bon en avant pour tout le monde, d'ailleurs s'en est presque triste, les risques font partis intégrantes de la vie, pas moins que la sécurité.
Il faut du sel pour ne pas s'ennuyer.
Mais c'est tout de même mieux dans ce sens là.
J'ai privilégié la vie de ceux qui n'avaient pas fait le choix d'etre dans une voiture autonome à chaque fois que c'était possible
J'ai du mal à croire qu'on ait réellement à faire ce genre de choix.
Je ne suis pas du tout un expert, mais j'imagine que la voiture détermine un certain nombre de "meilleurs choix", auxquels on peut attribuer un score qui dépend du nombre de victimes et de la gravité des chocs; et j'ai du mal à croire qu'on soit souvent dans des situations de "score égal", c'est-à-dire des situations où la voiture ne peut pas choisir.
Franchement, le plus moral serait que le fautif soit blessé (piéton imprudent ou conducteur fautif). Ensuite, j'ai envie de dire que dans l'exemple de la vidéo, le conducteur devrait faire l'accident plutôt que le piéton...la voiture possède une certaine solidité et protection (Airbag par exemple) contrairement au piéton qui n'a que ça peau et ses os.
0:10 Il faut se débarrasser des profiteurs et donc de l'homme d'affaires.
À la bonne allure et avec des distances de sécurité, ce genre de question ne devrait pas se poser
Vous avez oublié de mentionner si on doit privilégier les personnes qui respectent le code de la route ou pas.
La voiture ne fera jamais le choix de tuer un tel ou un tel. Si elle a le temps d'analyser ça, c'est qu'elle a eu le temps d'analyser la situation au préalable pour éviter l'accident. Typiquement, les distance de sécurité sont très importante dans ces véhicules, les ralentissements au niveau des carrefours et les capteurs d'anticipations feront le travail. En revanche, si quelqu'un décide de se jeter sous une voiture, clairement le choix est à la protection du conducteur. C'est un faux débat, car demain le système de circulation sera tout à fait différent de celui actuel.
Je pense qu'on part sur un mauvais chemin, en s'appuyant sur nos connaisances 'actuelles" des voitures. Pour moi, une voiture autonome, ne devrait ressembler en rien à une voiture normale.
Une solution, serait de réaliser des voitures "hyper-protégé" (un peu comme les voitures de courses) ou on peut imaginer avec un cadre en acier tout autour, une double ceinture de sécurité, avec obligation de porter un casque ect... On en perdra effectivement en confort, mais ainsi en cas de panne de frein, la voiture peut aller se heurter à un endroit ou il se situe personne.
Il est évident que cela n'est pas glamour, mais c'est un moyen de sauver des vies. Car pour moi, les voitures autonomes, sont d'abord fait pour des gens n'ayant pas le permis, ou étant trop agé pour utiliser leur propre voiture. Face au bénéfice de cette technologie, je conssens que ces personnes acceptent de perdre un peu de confort.
P-S : Je trouve cela completement innaproprié de demander par exemple, qui préférer vous tuer entre un sdf ou un pdg. Non pas car la question dérange (même si j'ai déjà mon idée), mais surtout car a quel moment une voiture même bouréée de capteur peut distinguer le statut social d'une personne ? De plus, cet argument peut rapidement devenir fallacieux. En effet, comment déterminer si une personne est sdf ou non ? Ses habits ? Mais si je porte un jean troué, que c'est la mode avec un grand pull fesant un peu "grunge", sachant que je suis pdg ? Le jour ou une voiture saura faire cela (reconnaissance faciale ?) on pourra aller beacoup plus loin. Si la voiture arrive à reconnaitre une personne, alors faut t'il tué celui qui à un casier judiciaire ? Ou plutôt celui qui à une opignon politique différent ?
Je pense que certaines questions ont dus être intégrée par les chercheurs, non pas pour la réflexion sur les voitures autonomes, mais pour sonder la population (SDF ou PDG ? - Vieux ou jeune ?) sachant que ces voitures n'auront jamais à faire de tel choix car incapable. Ainsi, après analyse des résultats, on peut se dire, vous voyez ? Les sdf sont moins importants, tous comme les vieux, alors, ce n'est pas grave si on possède une politique répréssive envers eux. C'est le peuple même qui le dit.
Bon, en vrai, ce n'est que mon avis, et je suis sûrement parti un peu trop loin xD
Je ne comprends pas l'intérêt... dans un cas de freinage d'urgence on pile peut importe la personne qui en sera victime ou pas
Le pire choix à faire selon moi c’est celui de: Dois je sauver le conducteur ou le piéton.
Pourquoi faudrait-il programmer la voiture pour ça, si elle a un problème de freins et qu'elle ne peut éviter un accident ou une collision avec des piétons qui s'avèreraient mortels dans tous les cas autant la faire continuer tout droit, ça évitera des choix éthiques débiles. Les victimes se seraient simplement trouvées au mauvais endroit au mauvais moment. Et bien qu'on ne soit pas à l'abri de pannes, si la voiture est bien conçue, la probabilité qu'elle tombe en panne serait faible et celle qu'on se retrouve dans cette situation encore plus.
Comment la voiture arrive à faire la différence entre un cadre, sdf, femme/homme, adulte/enfant, quelques secondes avant l’accident?
Je propose de créer des classes "VIP" et "Pauvre" pour ajouter des choix prédéfini sur ce genre de voiture afin qu'elle choisisse automatiquement qui renverser
De toute façon ces dilemmes ne surviendront jamais ou presque.
Ce genre de décisions ne devraient même pas être confié à une IA.
Donc la on en est arrivé à se demander si une vie en vaut plus que une autre ? Juste parceque nous sommes flemmards et nous avons la flemme de conduire notre voiture et nous voulons des voitures autonomes ? Horrible on ne peut pas choisir entre deux vies
Et si la voiture ne prenait la route lorsqu'elle a des freins défectueux. Et si cette voiture perdrait l'usage de ses freins lors d'un trajet, il faut qu'elle soit munie d'un système de freinage indépendant exceptionnel (le frein à main par exemple).
En fait ça devrait jamais arriver, si la voiture est autonome elle dépasseras pas la limite de vitesse donc aura le temps de freiner et si les freins ne marche pas elle devrait normalement afficher un message pour le dire aux passagers qu’ils puissent le réparer
Ils ont suffisamment vécu et respiré assez d'air
Laissez les jeunes vivre
Ce sera de même pour moi quand je serais vieux
faudrait des tests en situation d'urgence parce que là c'est des questionnaires
Les voiture autonome ne peuvent pas faire la différence entre les différents statut social des gens, voilà problème réglé
Se baser sur la décision des gens, qu'elle bonne idée. Comme ça, les voitures écraseront toujours les pauvres en priorité
La pire idée est de mettre de la morale dans ces machines!
Chaque vie a une valeur faut pas chercher plus loin
@Le monde la discussion fait froid dans le dos tout comme la vidéo mais c'est un vrai sujet de société.
Pour mon avis la voiture doit écraser si elle a une priorité définis et doit s'arreter voir se crascher dans un mur si elle ne respecte pas cette priorités ainsi les piétons traverseront sur les passagesîétons et pas autres part elle les conducteurs ou logiciel respeceront ces derniers (enfait ce son surtout les constructeurs qui sont concernés)
Laissons l'aléatoire choisir. Un aléatoire basé sur les capteurs du véhicule (luminosité par exemple ou n'importe quel autre).
Non mais sérieusement!? Il n'y a qu'une seule réponse à toutes ces questions! On exécute la décision qui minimise le nombre de victimes animales, avec un coefficient plus grand pour les humains! C'est le seul critère qui compte! O.o
Pourquoi prendre en compte le statut social ? Une vie ne se marchande pas !
Si les freins sont défectueux, c'est pas plutôt la faute du fabricant de la voiture ?
Dans tous les cas, c'est au propriétaire de la voiture de choisir.
Première consigne : l'automobile doit toujours chercher à percuter un objet massif et inerte au lieu d'un être vivant,il est beaucoup plus facile de survivre à un choc à l'intérieur du véhicule que d'être percuter par celui-ci.
Ouai mais les voitures comment elles savent si le gars c’est un patron d’entreprise ou un videur de poubelle ?
Si il a une poubelle a la main😆
Sa peut se faire à la reconnaissance faciale avec le recoupement des données dont dispose l'état sur chacun :les capteurs de la voiture n'auront qu'à scanner un visage puis envoyer les informations à une base de données de l'état qui lui retournera le profil de l'individu associé,
Un niveau de priorité standard peut être fixé pour un individus qui n'est pas reconnu sur le moment.
Je ne suis pas un parano de l'ia mais c'est qd même chaud de se dire, on peut la programmer pour sacrifier telle catégorie de personnes, une sorte de sélection sociale, et après se dire, "ah c'est pas nous, c'est l'ia qui l'a tué"
L'éthique ici serait de foutre en l'air la voiture pour éviter les piétons.
Et comment tu determine si le type est cadre ou sdf ou medecin ?
J'espere que c'est une blague
non pourquoi ?
Il suffit de ne pas permettre à l'IA de faire de distinction entre les formes de vie.
Le choix est biaisé et nous force à prendre une décision immorale.
Faudrai inventer un système a la Black Mirror avec des points selon les actions que tu fais au final la voiture choisira celui qui en a le moin😂😂
Plus sérieusement la voiture pourrais analysé les chances de survie dans tout les cas par rapport a la masse l'angle et la puissance du choc la taille etc...
C'est scandaleux de faire décider à une machine la valeur de la vie d'une personne,
C'est pour ça que c'est totalement stupide. Les gens qui vous diront c'est soit A ou B, que tout est manichéen sont stupides. Parce que c'est jamais comme ça. Soit tu tues le vieillard, soit tu tues l'enfant, soit tu sauves les deux. C'est juste qu'ils ont la flemme de sauver les deux. Rien n'est inéluctable et tout peut-être évité. C'est juste que c'est plus dur et qu'ils ont la flemme. C'est une véritable honte.
Donc ces voitures nous font peur et nous force a être plus « utile » à la société pour ne pas mourrir WTF
Pourquoi ne pas faire stopper la voiture automatiquement
Car c'est une expérience de pensée, on se permet donc de supposer que la voiture est instopable
Ce qui m'étonne s'est que la voiture pourra vraiment differencir un cadre d'un sdf ? Un enfant d'une personne âgée ?
Je trouve ça horrible de se poser ces questions
Je pense que ce n'est pas une question de personne mais une question de situation, de reflex et il ne faudrait pas avoir a choisir
La solution c est que soit on trouve un moyen de faire en sorte que ces voitures n écrasent personne, comme ceux qui font ces voitures promettent ou ne juste pas les commercialiser
Non aux voitures autonomes ! L'être humain est suffisamment intelligent et doué pour conduire seul
Pas dans le sud de la France en tout cas 😂
La preuve que non rien qu'à voir le nombre d'accident de la route
un piéton sera toujours plus fragile que l'automobile, le véhicule tentera une manœuvre d'évitement quitte à percuter un obstacle non humain et mettre en danger les occupants, ceux-ci seront toujours mieux protégés que le piéton du fait de la carrosserie.
Un autre élément est à prendre en compte, la probabilité d'une telle situation est beaucoup plus réduite avec un véhicule autonome qu'avec un conducteur humain: les machines respectent le code de la route ! -> vitesse réduite, distance de sécurité, feux ...
Sinon au lieu de faire des recherches pour qui la voiture doit écraser, ils n’ont qu’à voir pour développer des meilleurs freins ou des techniques pour empêcher d’écraser quelqu’un
Bon ok mais expliqué moi comment la voiture connaît la classe sociale du piéton ???!!!
J'ai du mal à comprendre comment une voiture automatique peut faire la différence homme/femme, SDF/cadre, personne âgée/personne adulte
Et pourquoi préférer tuer telle ou telle personne, pour moi c'est du sexisme/racisme et de la discrimination en général.
Mieux il aurait dû programmé des excuses en plus si c'est un jeune "c'était le futur Hitler" si c'est un vieux "ça fesait 25 ans qu'il avait un compte en Suisse"
Juste... Comment on arrive à déterminer en 1/100èmende seconde le statut social d'une personne qu'on s'apprête à renverser ? 😰
Le sdf, serait la victime probable, elle passera inaperçue dans la rubrique des chiens écrasés. Le col blanc lui et sa famille et ou compagnie assurance feront une poursuite judiciaire à l'occupant de la voiture.
À mon avis on ne peut pas choisir qui on doit tuer entre un SDF et un cadre ! On est humain. Voilà tout, sans emploi, handicapé, cadre, etc. Tous cela ne devrait pas influencer notre réflexion !! Seul l’âge peut-être peut être pris en compte, d’une manière logique les personnes âgées ont déjà fait leur vie, les enfants/jeunes y entre à peine, ça n’est sans doute pas juste mais ça me parait le plus acceptable entre tous ces choix plus horrible les uns des autres
La solution qui règle tout c'est de conduire sois même... si tu ne veux pas conduire tu ne conduis pas mais il faut savoir se donner les moyens dans la vie!
Le moindre mal. Le SDF ne cotise pas alors il est préférable qu'on le perde plutôt qu'un cadre. C'est triste mais c'est comme ça on ne fait pas fonctionner un pays avec une mentalité d'enfant.
Le problème de ça c'est que le programme ne sera jamais développé pour s'adapter à toutes les situations. Qu'est-ce que le programme serait censé faire si la voiture n'a pas d'autre choix que de tuer une personne parmi 3, toutes de même sexe, d'âges proches? Le problème est bien là, au delà même du questionnement éthique en condamnant une certaine catégorie à la mort assurée en cas d'accident, c'est que la machine ne s'adaptera jamais à toutes les situations.
Bon et puis surtout qui est responsable en cas d'accident? Le programme ou le conducteur? Parce en cas d'accident, ou bien le programme n'aura pas bien fait son travail, ou bien le conducteur n'aura pas été assez attentif, ou les 2 n'auront pas été assez attentifs, ce qui est le plus probable.
Y a pas l'option choix aléatoire. Ainsi on exprimerait l'égalité entre les riches et les pauvres statistiquement parlant tout en faisant un choix.
Si les freins sont défectueux, alors la voiture autonome va soit se rendre dans le garage le plus proche, soit se ranger sur le bas côté si le trajet est risqué.
Problème réglé (et je n'ai pas Bac +8!).
Freny Sanji effectivement ça se voit que t'as pas bac +8...