Ce qui est étonnant dans ce débat c’est, pour le mathématicien, de réduire la décision de justice à une approche quantitative quand bien même elle prendrait en considération les décisions passées et les raisonnements passés du juge. S’il y a un aléa il n’est pas purement quantitatif. L’aléa existe car en matière judiciaire et/ou juridique ce qui est exact n’est pas forcément juste. En outre, ce qui a été pris en compte par le passé par le juge et interprété par le juge au regard d’un certain contexte politique, juridique, social, éthique peut et doit nécessairement évoluer avec le temps et l’espace. Même si les données passées et interprétées par le juge ont pu être quantifiées par l’ia, cette dernière ignore tout de ce que le juge pense au moment de rendre sa décision. Quand on est juristes, d’où l’intérêt d’un dialogue avec les sciences dures, on sait que le droit ne se réduit pas à la loi, que le droit ne se réduit pas à une somme de décisions passées, que le droit ne se réduit pas à un syllogisme formel pur. Laisser entendre que l’ia aujourd’hui ou demain pourrait penser comme un juge et que le résultat de son « raisonnement » serait au moins aussi bien que celui du juge est réducteur et dangereux. C’est un outil très utile qui aide le juge à prendre sa décision qui reste essentiellement humaine avant d’être essentiellement aléatoire. L’émotion, le juste, l’équité, la bonne foi, le raisonnable, le sentiment, l’instinct, l’inconscient ne sont pas, pour l’instant je reste prudent, maîtrisés par la machine en dehors d’une approche purement quantitative. Faisons en sorte qu’il en soit toujours ainsi. C’est d’ailleurs en ce sens que se prononce le règlement IA.
Les réseaux de neurones naturels ne gèrent pas des uns ou des zéros contrairement à ce que dit l'ex chercheur de l'INRIA Jacques LEVY. D'autre part, ChatGPT propose bien de trouver le mot suivant, même si justement trouver le mot suivant reste une tâche complexe. ChatGPT représente une forme d'intelligence.
L’IA ne semble pas avoir de conscience . Alors doit on donner plus ou la meme valeur ou une valeur de think tank en plus de ce que peut décider ke juge ?
Les compétences des intervenants ne sont pas à critiquer mais le sujet est planétaire alors pourquoi les l'intervenant avec leur compétences juridique et autres ne sont pas identiques et de toute origine.... l'IA va changer le monde est le quotidien d'une très grande majorité de l'humanité. La question : si le volet juridique est réfléchi et imposé au final par des lois d'un clans très fermé , naturellement celui là se placera dans des loges dorées d'exception selon les intérêts fiscaux ou juridiques . Que adviendra des autres la grande majorité qui ne pourront que suivre les lois gravées sur marbre.
Ce qui est étonnant dans ce débat c’est, pour le mathématicien, de réduire la décision de justice à une approche quantitative quand bien même elle prendrait en considération les décisions passées et les raisonnements passés du juge. S’il y a un aléa il n’est pas purement quantitatif. L’aléa existe car en matière judiciaire et/ou juridique ce qui est exact n’est pas forcément juste. En outre, ce qui a été pris en compte par le passé par le juge et interprété par le juge au regard d’un certain contexte politique, juridique, social, éthique peut et doit nécessairement évoluer avec le temps et l’espace. Même si les données passées et interprétées par le juge ont pu être quantifiées par l’ia, cette dernière ignore tout de ce que le juge pense au moment de rendre sa décision. Quand on est juristes, d’où l’intérêt d’un dialogue avec les sciences dures, on sait que le droit ne se réduit pas à la loi, que le droit ne se réduit pas à une somme de décisions passées, que le droit ne se réduit pas à un syllogisme formel pur. Laisser entendre que l’ia aujourd’hui ou demain pourrait penser comme un juge et que le résultat de son « raisonnement » serait au moins aussi bien que celui du juge est réducteur et dangereux. C’est un outil très utile qui aide le juge à prendre sa décision qui reste essentiellement humaine avant d’être essentiellement aléatoire. L’émotion, le juste, l’équité, la bonne foi, le raisonnable, le sentiment, l’instinct, l’inconscient ne sont pas, pour l’instant je reste prudent, maîtrisés par la machine en dehors d’une approche purement quantitative. Faisons en sorte qu’il en soit toujours ainsi. C’est d’ailleurs en ce sens que se prononce le règlement IA.
Tres interessant a écouter et très positif.
Les réseaux de neurones naturels ne gèrent pas des uns ou des zéros contrairement à ce que dit l'ex chercheur de l'INRIA Jacques LEVY. D'autre part, ChatGPT propose bien de trouver le mot suivant, même si justement trouver le mot suivant reste une tâche complexe. ChatGPT représente une forme d'intelligence.
L’IA ne semble pas avoir de conscience . Alors doit on donner plus ou la meme valeur ou une valeur de think tank en plus de ce que peut décider ke juge ?
Les compétences des intervenants ne sont pas à critiquer mais le sujet est planétaire alors pourquoi les l'intervenant avec leur compétences juridique et autres ne sont pas identiques et de toute origine....
l'IA va changer le monde est le quotidien d'une très grande majorité de l'humanité.
La question : si le volet juridique est réfléchi et imposé au final par des lois d'un clans très fermé , naturellement celui là se placera dans des loges dorées d'exception selon les intérêts fiscaux ou juridiques . Que adviendra des autres la grande majorité qui ne pourront que suivre les lois gravées sur marbre.