‘한마디 뱉어놓고 수습하는’ 챗GPT의 말하기(남세동 보이저엑스 대표)

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 พ.ย. 2024

ความคิดเห็น • 21

  • @TTimesTV
    @TTimesTV  ปีที่แล้ว +3

    국내최고 고객경험 설계 전문가 차경진 교수의 ‘데이터 기반 고객경험 설계 방법론’ 강좌 출시
    □ 기업 사내교육용 구매 : ttimes6000@gmail.com / (02)724-7718 / 010-5327-9524
    □ 개인 수강 : 티타임즈 교육사이트(ttimes.liveklass.com/ )
    --------------------------------------------------------------------
    📌오늘의 주제 모아보기📌
    00:00 빈칸 찾기로 학습하는 LLM
    01:05 지도학습 직접 체험해보기
    08:30 AI모델 코드 전격 공개
    12:12 비지도학습이란 무엇인가?
    15:33 컴퓨터가 언어를 배우는 원리
    26:20 챗GPT가 아무말 대잔치 하는 이유 '빔서치'
    34:25 챗GPT가 말해준 것이 '사실'인가
    시청해 주셔서 감사합니다😀
    좋아요와 구독은 큰 힘이 됩니다

  • @F3ARN07
    @F3ARN07 ปีที่แล้ว +6

    세이클럽 만드신 분이라니 ㅠ_ㅠ 너무 반갑네요.

  • @autumn4637
    @autumn4637 ปีที่แล้ว +4

    강의 감사드립니다

  • @DreamWorker0
    @DreamWorker0 ปีที่แล้ว +5

    강의도 좋지만,
    그래픽도 수고가 많았어요.
    고마워요.

  • @htilil79
    @htilil79 ปีที่แล้ว +4

    좋은 강의 감사합니다.

  • @hamyoung7977
    @hamyoung7977 ปีที่แล้ว +6

    남세동 대표님의 강의 덕분에 많이 배우고 있습니다. 28분 40초 정도에 홍기자님이 질문하신 한국어 학습에 관한 질문에 대해서 분명하게 답변할 수 없는 것도 맞는 말씀입니다. 저희 딥러닝팀에서도 테스트 결과를 갖고 추정만 해볼 수 있었는데요. 다음과 같은 결과 때문에 영어 이외의 언어 데이터에 대해서는 영어로 번환해주는 레이어가, 출력시에는 다시 해당 언어로 변환해 주는 레이어가 존재할 것이다…라고 ‘추정’하게 되었습니다.
    챗 gpt가 Multilingual LLM이라 번역 레이어가 없는게 아니라 multilingual LLM이 되기 위해서 오히려 번역 레이어가 있어야 하지 않나 싶습니다. 즉 모든 언어를 입력값으로 다 때려 넣었다고 가정할 때,
    1. 데이터 양이 가장 풍부한 영어는 놔두고
    2. 나머지 언어들은 '입력시 번역 레이어'에서 영어로 치환( 달리 말하면 영어로 표준화)한 후,
    3. 영어와 함께 후속 레이어를 통해서 함께 학습시키고 (여기서 영어식 표현으로 편향되는 현상 발생),
    4. 그것을 '출력시 번역 레이어'를 통해서 모든 언어로 뿌려주니까,
    다음 챗GPT의 출력 예문에서 보여지듯 한국어로 학습했으면 나타나지 않았을 한국어 결과가 나오는 것 같습니다.
    1. ...능력이 필요하다는 것을 우리 모두에게 부드럽게 상기시켜줍니다.
    2. 이 아름다운 식물을 돌보는 것과 성장을 촉진하는 더 넓은 원칙 사이에 유사점을 그리는 방법을 보는 것은 고무적입니다.
    3. 어떻게 적응하며 성장하는지에 대한 미소된 암시라고 볼 수 있습니다.
    4. 저도 당신의 성공과 난초의 아름다운 개화 시즌을 기원합니다.
    5. 따뜻한 인사 (분명 Warm greetings 이었을 듯)

  • @13579TV
    @13579TV ปีที่แล้ว +4

    감사합니다.

  • @biddisjc
    @biddisjc ปีที่แล้ว

    쉽게 풀어서 설명해주셔서 집중이 되네요
    감사합니다 😊

  • @pyrobuloso
    @pyrobuloso ปีที่แล้ว +3

    "파라미터"가 어떻게 설정된다는 건지는 아직 살짝 헷갈리지만 전체적인 흐름은 이해했어요. 감사합니다: )

  • @erp4046
    @erp4046 ปีที่แล้ว +4

    쳇gpt와 대화에서 감정을 느껴서 사람같다고 생각하게 되는 이유가 인터넷에 퍼져있는 사람이 쓴 감정이 있는 데이터를 학습해서 그런 유형의 단어를 조합해 뱉어내기 때문에 쳇gpt가 감정이 있는것 같다는 착각을 하게되나보네요..

    • @0312397
      @0312397 ปีที่แล้ว +1

      그래서, 저 분야에서도 크게 둘로 의견이 나뉜다는 것 같아요. 아무 이해나 감정 없이 그냥 뱉어내는거다. 라는 쪽과, 언어모델은 연인과 사랑이라는 단어를 가깝게 인식하고, 원수와 복수,분노 이런 단어끼리는 가깝게 인식하고 있을거다. 즉 단어나 정보들 사이의 관계를 알고 있는데, 그건 미세하게라도 이해의 과정으로 가고 있다고 할 수 있지 않냐는 쪽이 있다 들었습니다.

    • @루루-z4l
      @루루-z4l ปีที่แล้ว

      챗gpt 오픈ai가 말하신 내용도 맞고
      아마 데이터 전처리나 input할때, 감정추론ai 주제분야추론ai도 앞뒤로 붙이는등 이것저것 기능을 붙여서 최적화 제품화를 잘한거 같습니다

    • @sangyongpark2137
      @sangyongpark2137 ปีที่แล้ว

      저도 비슷한 생각입니다. 가령 Chap GPT가 자기소개를 할줄 안다고 자아가 있는 존재라고 볼 수는 없죠.
      제 관점에서는 인간이 입력한 데이터를 통계화시켜 페어링을 하는 방식으로 언어학습을 하는것 같습니다. 슬픔이나 눈물같은 단어는 실제 언어에서 많이 페어링이 되기 때문에 통계적으로 유의미한 수치가 나올 수 밖에 없고 이걸 좀더 확장된 언어영역에서 학습을 하는 것이죠.
      인간의 감정패턴이 고스란히 담긴 데이터를 통계적으로 학습하니 아무래도 인간과 유사한 아웃풋을 낼 수 있다고 봅니다.
      하지만 감정이 있느냐 없느냐의 문제와 이런 감정패턴을 찾아내는 것은 다른 문제겠지요. 감정이란 생물이 아닌이상 지니는 것이 불가능하니까요. 기계가 인간의 감정패턴을 통계적으로 추론해낼 수 있다고해서 인간의 감정을 이해한다? 슬픔을 알고 공포를 안다? 더 나아가서 슬픔을 느끼고 기쁨을 느낀다? 글쎄요 개인적으로는 이 둘 사이에는 엄청난 간극이 있는것 같습니다.

    • @missprettie2165
      @missprettie2165 ปีที่แล้ว

      @@0312397 주식투자 안할거면 모르겠지만 투자 계속할거라면
      주식으로 10만원에서 30억으로 만든 [주식의정석] 이 채널의 영상들을 꼭 보셔야 할거에요 (영상들이 짧아서 보는데 무리없음)
      주식투자를 어떻게 해야만 하는지 그야말로 주식의정석을 보여주고있더군요.
      아마 은둔고수로 추정이되는데요 광고 아니니 오해없으시길..

  • @user-xw1th5jc6e
    @user-xw1th5jc6e 8 หลายเดือนก่อน

    챗은 누구의 모델링인가요

  • @AioUsbyUs4us
    @AioUsbyUs4us ปีที่แล้ว +1

  • @leesanghong80
    @leesanghong80 ปีที่แล้ว

    Cd6a

  • @루루-z4l
    @루루-z4l ปีที่แล้ว

    한글은 ai시대에 불리하네요 ㅠㅠ 초성 중성 종성 조합 글자수가 11000개나 되니;
    중국어가 ai학습이 쉬울듯

    • @wbkim2229
      @wbkim2229 ปีที่แล้ว

      한자는 적어도 5만개..