Ce n'est pas un LLM donc pourquoi il pourrait halluciner? Il ne choisira jamais sa cible, il n'a juste pas besoin d'être connecter pour fonctionner. Le jailbreak? Tu veut lui demander son system prompt? 😅
@dazenka7128 j'ai demandé à chatgpt 😀 a partir du moment où il y a un réseau de neurones il y a risque d'hallucinations. Et il serait théoriquement possible de jailbreak le drone si on arrive à lui faire accepter des données en piratant un des des autre drone qui lui servent d'eclaireur.
@@takezothot5220 Mais son réseau de neurones est entraîné pour savoir toucher sa cible, donc je ne vois pas très bien ce qu'il pourrait halluciner. Il ne va pas comme ça par hasard, choisir une autre cible à mon avis. Et pour le Jailbreak, je ne sais pas vraiment comment ça fonctionne. Donc c'est peut-être possible, mais ça me faisait juste rire de dire de lui demander son système prompt.
@dazenka7128 Apparemment "halluciné" pour une IA c'est quand il se plante en faisant une généralisation (ou une extrapolation) à partir des données qu'on lui donne. Et pour le jailbreak je suis tombé sur tweeter sur des prompt complément débile et assez rigolo pour passer en god-mode avec chatgpt.
C'est super dangeureur le HX-2. Est-ce qu'il peut halluciner ? Est-ce qu'on peut le jailbreak ? Sa pue cette affaire.
Ce n'est pas un LLM donc pourquoi il pourrait halluciner? Il ne choisira jamais sa cible, il n'a juste pas besoin d'être connecter pour fonctionner.
Le jailbreak? Tu veut lui demander son system prompt? 😅
@dazenka7128 j'ai demandé à chatgpt 😀 a partir du moment où il y a un réseau de neurones il y a risque d'hallucinations. Et il serait théoriquement possible de jailbreak le drone si on arrive à lui faire accepter des données en piratant un des des autre drone qui lui servent d'eclaireur.
@@takezothot5220 Mais son réseau de neurones est entraîné pour savoir toucher sa cible, donc je ne vois pas très bien ce qu'il pourrait halluciner. Il ne va pas comme ça par hasard, choisir une autre cible à mon avis. Et pour le Jailbreak, je ne sais pas vraiment comment ça fonctionne. Donc c'est peut-être possible, mais ça me faisait juste rire de dire de lui demander son système prompt.
@dazenka7128 Apparemment "halluciné" pour une IA c'est quand il se plante en faisant une généralisation (ou une extrapolation) à partir des données qu'on lui donne.
Et pour le jailbreak je suis tombé sur tweeter sur des prompt complément débile et assez rigolo pour passer en god-mode avec chatgpt.