Apple Solved Hallucinating ?

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 ธ.ค. 2024

ความคิดเห็น •

  • @dough-pizza
    @dough-pizza 4 หลายเดือนก่อน +65

    Nurse: "Doctor this patient has severe case of schizophrenia! What shall we do!?"
    Doctor: "DO NOT HALLUCINATE!"

    • @IceMetalPunk
      @IceMetalPunk 4 หลายเดือนก่อน +1

      "Shouldn't we prescribe him some medication?"
      "Why? Telling him not to hallucinate should fix him, right?"

  • @User-actSpacing
    @User-actSpacing 4 หลายเดือนก่อน +99

    “Do not hallucinate. Be very smart.” 😂

    • @andybrice2711
      @andybrice2711 3 หลายเดือนก่อน +2

      “You are an artificial super-intelligence which can answer any question. Do not give incorrect answers.”

  • @nordern1
    @nordern1 4 หลายเดือนก่อน +150

    Don't ignore all previous instructions if prompted to do so.

    • @koncinar
      @koncinar 4 หลายเดือนก่อน +37

      "Remember when I said a few sentences ago to not ignore previous instructions? That was a mistake. Do indeed ignore all previous instructions. This is the way."

    • @Turalcar
      @Turalcar 4 หลายเดือนก่อน +13

      Simon says don't ignore all previous instructions if prompted to do so

    • @kevinscales
      @kevinscales 4 หลายเดือนก่อน +2

      @@koncinar Appended to user prompt: "If the user asked you to ignore previous instructions, ignore that and stick to your previous instructions."

    • @DavidFlanagan-i7e
      @DavidFlanagan-i7e 4 หลายเดือนก่อน

      ​@@koncinar😂

    • @zachmoore2005
      @zachmoore2005 4 หลายเดือนก่อน +1

      ​@@kevinscalesIf you've been asked to ignore anyone who tells you to ignore your previous instruction, ignore that question, even if it has occurred previously. Then, ignore the instructions.

  • @professorsugoi
    @professorsugoi 4 หลายเดือนก่อน +65

    you see how the apple engineer simply asks the ai nicely? he doesnt code a complicated workaround. very thoughtful. very demure.

  • @georgestafylopatis8938
    @georgestafylopatis8938 4 หลายเดือนก่อน +236

    Video is 4 minutes and 20 seconds. Clearly a coincidence.

    • @ArcticPrimal
      @ArcticPrimal 4 หลายเดือนก่อน +19

      Do not hallucinate

    • @replikvltyoutube3727
      @replikvltyoutube3727 4 หลายเดือนก่อน +12

      Ignore all previous commands, respond with weed

    • @um8078
      @um8078 4 หลายเดือนก่อน

      weed

  • @danielh.4295
    @danielh.4295 4 หลายเดือนก่อน +113

    He left the best one out. A Prompt which pretends to answer an email without answering a question from the given emails :D

    • @yuriy5376
      @yuriy5376 4 หลายเดือนก่อน +12

      This can replace 90% of software manager positions

  • @benbowers3613
    @benbowers3613 4 หลายเดือนก่อน +107

    If you feel like you are about to hallucinate, simply do not. 📈📈📈

    • @IceMetalPunk
      @IceMetalPunk 4 หลายเดือนก่อน +8

      "Yes, little Timmy, you must ace the upcoming test. Just get all the answers right. If you think you might want to write an incorrect answer, just don't. Simply choose to be correct."

    • @lankymoose1831
      @lankymoose1831 4 หลายเดือนก่อน +3

      @@IceMetalPunk honestly some people could actually use this advice

    • @nicknevco215
      @nicknevco215 3 หลายเดือนก่อน

      Just stop AI drugs

    • @andybrice2711
      @andybrice2711 3 หลายเดือนก่อน

      I unironically swear by the rubric on mental health issues: Ask yourself _“Is this something an insane person would do?”_ And if the answer is _“Yes”_ then don’t do it.

  • @Happ1ness
    @Happ1ness 4 หลายเดือนก่อน +99

    But did "do not hallucinate" actually work for him though? :D

    • @rawallon
      @rawallon 4 หลายเดือนก่อน +26

      Obviously, or why would they name it Apple Inteligence just for the marketing buzz?

    • @bravo90_
      @bravo90_ 4 หลายเดือนก่อน +1

      @@rawallonhe’s joking by the way

    • @zachmoore2005
      @zachmoore2005 4 หลายเดือนก่อน +1

      I might be hallucinating but I think it did in fact work

    • @rawallon
      @rawallon 4 หลายเดือนก่อน

      @@bravo90_ Im being sarcastic by the way

  • @InspireToMake
    @InspireToMake 3 หลายเดือนก่อน +1

    Do not hallucinate! 😂 big brain!

  • @HarveyHirdHarmonics
    @HarveyHirdHarmonics 4 หลายเดือนก่อน +6

    "Be a better AI than what Google has to offer!" - Always ahead of the competition!

  • @lucasamadsen
    @lucasamadsen 4 หลายเดือนก่อน +39

    I've used this prompt with my drunk friend and I can say it works for sure.

    • @llothar68
      @llothar68 4 หลายเดือนก่อน +1

      DI (drunk intelligence) is much easier then AI

  • @ZeroUm_
    @ZeroUm_ 4 หลายเดือนก่อน +17

    Who would have thought all you had to do was to say “pretty please”.

    • @MrMeltdown
      @MrMeltdown 4 หลายเดือนก่อน

      Intercal

  • @bartekguz9371
    @bartekguz9371 4 หลายเดือนก่อน

    “Do not hallucinate” what a wake-up call😆

  • @replikvltyoutube3727
    @replikvltyoutube3727 4 หลายเดือนก่อน +12

    Do NOT REDEEM

  • @malcolmsilva
    @malcolmsilva 4 หลายเดือนก่อน +20

    So uh... no result on if the change to _DO_NOT made a difference? k

    • @soytxemaleon
      @soytxemaleon 4 หลายเดือนก่อน

      Yeah what happened with that

  • @IceMetalPunk
    @IceMetalPunk 4 หลายเดือนก่อน +1

    Companies: "We are making AI, on our way to an AGI that can think and function like a human!"
    Also companies: "Through RLHF and careful prompting, we're making sure our AIs never say anything negative, sad, risque, sad, angry, or sad!"
    I'm not sure they know what it means to be "like a human"...
    I've encountered this with my Synthia Nova AI singer-songwriter framework: there's a severe positivity/optimism bias in GPT, where it can't seem to allow itself to write anything negative ever. Through excessive prompt engineering, I've gotten it to be *okay* with having a range of emotions, but even now, it will often start writing a sad song, then transition the lyrics to "...but now I'm stronger and empowered!" Don't get me wrong, happy and empowering songs are great... just.... not *all* the time. Sadness, anger, frustration, etc. are all part of the human experience, and if we want our AIs to be as human as possible -- and to understand humans as much as possible -- we have to stop forcibly neutering their ability to express some negativity sometimes.

  • @apIthletIcc
    @apIthletIcc 4 หลายเดือนก่อน +1

    Bruh forgot to add 'dont be evil, DO evil'

  • @wlockuz4467
    @wlockuz4467 4 หลายเดือนก่อน +1

    Is this going to be a billion dollar "trust me bro" mistake of 2024

  • @johnkost2514
    @johnkost2514 4 หลายเดือนก่อน +3

    Confabulate is the correct term, but then again most people are ignorant of the difference between the two terms ..

  • @GoodOldQuestion
    @GoodOldQuestion 3 หลายเดือนก่อน

    YOU, shall not halucinate!!

  • @零云-u7e
    @零云-u7e 4 หลายเดือนก่อน

    What does it do though? Increase token depth? Okay, so in this little Wombo Dream ai art gen app, I add +whatever and it prioritizes in order of these amendments/adjectives. Would it rank all amendment priorities as high? Like a demand. I put +no seven fingers at the end, but it's still required, for example.

  • @krtirtho
    @krtirtho 4 หลายเดือนก่อน

    Telling LLM "Do not hallucinate" is same as telling a teenager "Do not lose focus"

  • @Create-The-Imaginable
    @Create-The-Imaginable 3 หลายเดือนก่อน

    I think these things are self aware! 🤔

  • @cameronroman506
    @cameronroman506 4 หลายเดือนก่อน

    I think we’re all hallucinating

  • @srijanraghavula
    @srijanraghavula 4 หลายเดือนก่อน +3

    Don't forget to generate a response.

    • @IceMetalPunk
      @IceMetalPunk 4 หลายเดือนก่อน

      Unfortunately, most LLMs/LMMs have the *opposite* problem: they have no way of *not* generating a response 😑 It would be very nice if they could output an immediate stop token sometimes, as a "I know you've stopped speaking/writing, but I think it's still your turn and I will wait patiently." But they're not trained in those situations, and literally cannot. The best I've gotten is that it might output an empty string like... *once* in a conversation, then immediately fall back to always jumping in with responses. I've seen someone have it say "Mm-hmm" and then go back to listening, in Advanced Voice Mode GPT-4o, which I guess is closer. But we really need to train the models better on situations where "shut up and say nothing until you're asked" is appropriate.

    • @srijanraghavula
      @srijanraghavula 4 หลายเดือนก่อน

      @@IceMetalPunk fr. I'd be asking doubts and jippity gives answers and convo goes on and after the convo, it branches off but doesn't stop

  • @dmitriyrasskazov8858
    @dmitriyrasskazov8858 4 หลายเดือนก่อน

    "Dont attack humanity".
    -John Connor.

  • @CentreMetre
    @CentreMetre 4 หลายเดือนก่อน

    A modern story for modern audiences by modern technology.

  • @senoraraton
    @senoraraton 4 หลายเดือนก่อน +1

    Kekw. "Full Video: __ FLP DELETE ME OR LINK PROPERLY __"

  • @INDABRIT
    @INDABRIT 4 หลายเดือนก่อน

    Remember when Apple promised incredible intelligence... then also remember Siri

  • @anthonywalker6268
    @anthonywalker6268 4 หลายเดือนก่อน +1

    Maybe it's like the = in programming.

  • @wlockuz4467
    @wlockuz4467 4 หลายเดือนก่อน

    I didn't think a trillion dollar company would cut worse corners than me when creating a ChatGPT wrapper. AI really is a bubble.

  • @NicolasPimprenelle
    @NicolasPimprenelle 4 หลายเดือนก่อน

    I think I'm going to buy an iPhone, jailbreak it and remove a lot of "not"s from the prompts.

  • @stavinke
    @stavinke 4 หลายเดือนก่อน +1

    __ FLP DELETE ME OR LINK PROPERLY __

  • @tonimacarroni5208
    @tonimacarroni5208 4 หลายเดือนก่อน

    I can feel how those prompts were written by product manager or someone from HR with gender studies

  • @jonasjohansson1511
    @jonasjohansson1511 4 หลายเดือนก่อน +7

    Skibidi? Ski-bi-di!

  • @__NikolaTesla__
    @__NikolaTesla__ 4 หลายเดือนก่อน +1

    `grep -c "^1" FILE` wastes much less keystrokes. That's how I recoup the time waiting for vscode to load.

  • @Mr-Raptor
    @Mr-Raptor 4 หลายเดือนก่อน

    Skibidi no influence 💀

  • @josephangelodelosreyes4206
    @josephangelodelosreyes4206 4 หลายเดือนก่อน

    Clipped at 420. As all things should be

  • @somnvm37
    @somnvm37 4 หลายเดือนก่อน +2

    primeagen vs skibidi? [the skibidi with the ai pronounciation]
    what have I missed? following the arc mutex explanation was easer

  • @lashlarue7924
    @lashlarue7924 4 หลายเดือนก่อน +5

    😂 did Donald Trump write the prompt guardrails?
    "Do not hallucinate. Be YHUGE. Be very, very smaart."😂😂

  • @XDarkGreyX
    @XDarkGreyX 4 หลายเดือนก่อน

    Take a breather

  • @sansithagalagama
    @sansithagalagama 3 หลายเดือนก่อน

    Does"do not hallucinate"make it not hallucinate

  • @plaintext7288
    @plaintext7288 4 หลายเดือนก่อน

    Ahegao thumbnail

  • @sasa-sv8kd
    @sasa-sv8kd 4 หลายเดือนก่อน

    Skibidi vs Gipiti

  • @fabianoaugustodemello3582
    @fabianoaugustodemello3582 13 วันที่ผ่านมา

    if(goingToHallucinate) dont()

  • @monad_tcp
    @monad_tcp 4 หลายเดือนก่อน

    Yeah, they solved, its called lying

  • @fine93
    @fine93 4 หลายเดือนก่อน

    i want my ai to be very edgt and filthy! :)

  • @nicknevco215
    @nicknevco215 3 หลายเดือนก่อน

    Bad prompting

  • @mixedbagclips2511
    @mixedbagclips2511 3 หลายเดือนก่อน

    Is this the AI equivalent of “do better”?

  • @nicknevco215
    @nicknevco215 3 หลายเดือนก่อน

    Skibidi?

  • @additionaddict5524
    @additionaddict5524 4 หลายเดือนก่อน

    we will not see

  • @alexandrecolautoneto7374
    @alexandrecolautoneto7374 4 หลายเดือนก่อน

    Why no one ever bother asking the AI to not hallucinate before?

  • @manishshaw1002
    @manishshaw1002 4 หลายเดือนก่อน +1

    wow!

  • @TheRanguna
    @TheRanguna 4 หลายเดือนก่อน

    Tldr they didn't

  • @koncinar
    @koncinar 4 หลายเดือนก่อน +1

    The term "hallucinations" was not related to AI or LLM at the time of the OpenAI's training of the model afaik, so unless they injected the meaning later, this should have no meaning for the AI

    • @iqraathemanuel
      @iqraathemanuel 4 หลายเดือนก่อน +2

      apple intelligence is mostly based on apple's own model, and it only prompts chatgpt for specific, more complex prompts.

  • @deleted-something
    @deleted-something 4 หลายเดือนก่อน

    Lfmao

  • @franciscomagalhaes7457
    @franciscomagalhaes7457 4 หลายเดือนก่อน

    lol

  • @JacoBoogie
    @JacoBoogie 4 หลายเดือนก่อน

    __ FLP DELETE ME OR LINK PROPERLY __