좋은 영상입니다. 그냥 여행하는 통번역과 비즈니스와 계약의 통번역은 일반인이 느끼기 어려운 그 디테일한 차이는 극복하기 정말 쉽지 않을겁니다. 과연 인공지능 통번역이 좀(please), 쪼옴(Come on), 쫌(Stop!)의 뉘앙스를 얼마나 캐치할수 있을까 궁금해지네요. ^^
앨런 튜링이 만든 것을 일반적으로는 인공지능이라고 보지는 않을 것입니다. 그는 콜로서스와 같은 도구들을 만들었는데 전자 컴퓨터를 만들어 내어서 연산량으로 애니그마를 풀었다는 것이 맞는 해석일 것 같습니다. 그리고 최근 ChatGPT와 Bard를 통해 알려진 것은 인공지능이 감정적인 부분에서는 꽤 잘 이해하고 있고 어떤 역할을 부여하는 것도 꽤 잘 이해하는 것이 밝혀지고 있는데요. 오히려 현재의 인공지능은 논리적인 부분에서 큰 약점이 있는 것으로 여겨지고 산술도 잘 못하는 것으로 보입니다. 아마 기계가 인간이 번역하는 것에 비해서 명백한 단점은 그런 부분에서 오지 않을까 싶네요.
네 기술적으로 더 정확한 답변 감사드립니다. 사실 이니그마가 인공지능이라고 하기엔 다소 무리는 있을거 같다고 생각은 했습니다. 기계 번역이 인간 번역을 효율성 측면에서는 당연히 따라 잡았지만 여전히 맥락과 감성까지 전달 가능한가에 대해선 회의적입니다. 앞으로도 그럴 것이구요. 챗GPT가 틀린 질문에도 거짓말로 답변을 늘어 놓는 알고리즘은 왜 가능한지 궁금하기도 하구요. 좋은 댓글 감사드립니다.
@@dororokTV 이것을 이렇게 비유할 수는 있을 것 같습니다. 구구단의 경우에는 81개의 숫자를 모두 외운다면 정확하게 계산을 할 수있을 것입니다. (파라미터는 y = ax + b에서 a나 b같은 수치입니다.) 그런데 일반적으로 신경망 시스템은 그만큼 파라미터를 가지고 있지 않습니다. 모든 경우의 수를 대비 할만큼 파라미터(가중치)의 값을 가지고 있지 않습니다. 그만큼 파라미터를 가질 수도 없고요. 그래서 머신은 무언가의 법칙을 발견해서 적은 파라미터로 비슷한 일을 하는 것을 찾으려고 합니다. 이렇게 신경망이 더 적은 리소스를 가지고 성공적인 사례 하나는 알파고를 만든 딥 마인드의 신경망 기반의 강화학습입니다. 강화학습은 스스로 자기와 경쟁해 성능을 높혀가는 기법으로 알파고에도 탑재하고 있습니다 기존의 강화학습은 테이블을 만들고 값을 채우는 형태로 했는데 복잡한 문제에 대한 강화 학습을 만드는건 아주 어려웠습니다. 채워야 하는 값이 너무 많고 그것을 다 가지고 있는 것이 현실적으로 불가능했기 때문입니다. 그래서 이런 문제를 신경망 기반의 시스템으로 풀어서 알파고까지 나온거죠. 이렇게 성공한 경우도 있지만 그 구했던 법칙이 터문이 없는 경우도 있고 인공지능 스스로는 이 법칙이 올바르다고 생각하기 때문에 특별히 거짓말을 하는 것은 아닙니다. 그래서 이런 경우를 환각이라고 부르는 것 같습니다. 어떤 사람들은 저화질 이미지 파일로 고화잘 이미지를 얻는 경우로 비유를 했었습니다. 원래 이미지가 저화질이었기 때문에 고화질로 만들면서 이상한 결과가 나오는 일도 있을 수 있다는 거죠. 인공지능에 있어서 상당수는 왜 그런지 이해하지 못하고 결과론적으로 해석하는 경우가 많다고 봅니다. 대표적인 사후 해석의 사례 중 하나가 임베딩 벡터란는 것인데요. 언어 모델을 사용할 경우 man과 woman이란 단어를 보고 인공지능이 느끼는 거리(벡터)를 신경망 가운데서 꺼내고, king과 queen에서 느끼는 거리를 꺼내면 거리가 동일한 것으로 알려져 있습니다. 이 임베딩 벡터를 통해 인공지능이 단어의 의미와 공통점등을 찾는 것으로 추론하는데 이것은 개발자들이 전혀 의도한 것이 아니고요. 결과적으로 이런 현상이 발견되는 것입니다. 지금의 인공지능은 의도하지는 않았는데 우연히 단어의 의미적인 공통점과 차이점을 스스로 인지하고는 있고요. 글을 쓴 사람이 기분이 좋거나 나쁜 것, 별점을 좋게 줄 것일지 나쁘게 줄 것일지는 잘 맞추고 있습니다. 그리고 반대로 희안하게도 논리적, 산술적인 처리는 잘 못하고 있고요. 그래서 저는 맥락과 감성이라는 분야는 잘 따라 갈 수 있지 않을까 그런 기대를 해봅니다. 반면에 논리적인 흐름이나 복잡한 계산 이런 부분에서는 잘 못하지 않을까 생각이 드네요. 물론 이것도 지금 GPT3.5나 GPT4를 보고 생각하는 것이니 갑자기 인공지능의 발전이 완전히 다른 방향으로 갈수도 있겠지만요.
과학의 발전 속도가 빠르기에 그럴 수도 있겠죠. 하지만 이미 50년 전에도 언어 장벽이 10년 후면 무너진다고 했었죠. 2000년이면 수학여행을 달에 간다고 예상했고, 2010년 정도면 하늘을 나는 자동차가 나온다고 했었죠. 2000년이면 지구 인구가 폭발해 지구상에 더 이상 살 땅이 없어 우주로 이민을 가야한다고 했고, 석유는 40년 후면 고갈된다고 했었죠. 암도 정복된다고 했구요. 미래학자 토마스 프레이가 몇 년 전 드론 택배가 인간을 대신한다고 예언했었어요. 물론 모든 예상이 틀리는 것은 아닙니다. 맞아 떨어지는 것도 있고 더 일찍 이루어지는 것도 있겠죠. 과학 발전 미신의 가장 큰 문제는 시간이 지나면 과학이 발전해 모든 것이 가능해진다는 것입니다. 그러나 과학이 해결해 주는 문제가 있고 못하는 문제가 있어요. 언어도 감히 그 중의 하나라고 저는 생각해 영상을 만들어 봤습니다.
좋은 영상입니다.
그냥 여행하는 통번역과 비즈니스와 계약의 통번역은 일반인이 느끼기 어려운 그 디테일한 차이는 극복하기 정말 쉽지 않을겁니다.
과연 인공지능 통번역이 좀(please), 쪼옴(Come on), 쫌(Stop!)의 뉘앙스를 얼마나 캐치할수 있을까 궁금해지네요. ^^
ㅎ 저도 생각지 못한 아주 좋은 사례이네요. 과연 ai가 저 정도를 맥락에서 분간해 내는 날이 올까요?
지금도 단순 여행시 간단 회화는 앱으로 가능하겠죠. 하지만 우리 영어 공부가 그 정도로 만족하려고 하는 공부는 아닐테니까요
앨런 튜링이 만든 것을 일반적으로는 인공지능이라고 보지는 않을 것입니다. 그는 콜로서스와 같은 도구들을 만들었는데 전자 컴퓨터를 만들어 내어서 연산량으로 애니그마를 풀었다는 것이 맞는 해석일 것 같습니다. 그리고 최근 ChatGPT와 Bard를 통해 알려진 것은 인공지능이 감정적인 부분에서는 꽤 잘 이해하고 있고 어떤 역할을 부여하는 것도 꽤 잘 이해하는 것이 밝혀지고 있는데요. 오히려 현재의 인공지능은 논리적인 부분에서 큰 약점이 있는 것으로 여겨지고 산술도 잘 못하는 것으로 보입니다. 아마 기계가 인간이 번역하는 것에 비해서 명백한 단점은 그런 부분에서 오지 않을까 싶네요.
네 기술적으로 더 정확한 답변 감사드립니다. 사실 이니그마가 인공지능이라고 하기엔 다소 무리는 있을거 같다고 생각은 했습니다. 기계 번역이 인간 번역을 효율성 측면에서는 당연히 따라 잡았지만 여전히 맥락과 감성까지 전달 가능한가에 대해선 회의적입니다. 앞으로도 그럴 것이구요. 챗GPT가 틀린 질문에도 거짓말로 답변을 늘어 놓는 알고리즘은 왜 가능한지 궁금하기도 하구요. 좋은 댓글 감사드립니다.
@@dororokTV 이것을 이렇게 비유할 수는 있을 것 같습니다. 구구단의 경우에는 81개의 숫자를 모두 외운다면 정확하게 계산을 할 수있을 것입니다. (파라미터는 y = ax + b에서 a나 b같은 수치입니다.) 그런데 일반적으로 신경망 시스템은 그만큼 파라미터를 가지고 있지 않습니다. 모든 경우의 수를 대비 할만큼 파라미터(가중치)의 값을 가지고 있지 않습니다. 그만큼 파라미터를 가질 수도 없고요. 그래서 머신은 무언가의 법칙을 발견해서 적은 파라미터로 비슷한 일을 하는 것을 찾으려고 합니다.
이렇게 신경망이 더 적은 리소스를 가지고 성공적인 사례 하나는 알파고를 만든 딥 마인드의 신경망 기반의 강화학습입니다. 강화학습은 스스로 자기와 경쟁해 성능을 높혀가는 기법으로 알파고에도 탑재하고 있습니다 기존의 강화학습은 테이블을 만들고 값을 채우는 형태로 했는데 복잡한 문제에 대한 강화 학습을 만드는건 아주 어려웠습니다. 채워야 하는 값이 너무 많고 그것을 다 가지고 있는 것이 현실적으로 불가능했기 때문입니다. 그래서 이런 문제를 신경망 기반의 시스템으로 풀어서 알파고까지 나온거죠.
이렇게 성공한 경우도 있지만 그 구했던 법칙이 터문이 없는 경우도 있고 인공지능 스스로는 이 법칙이 올바르다고 생각하기 때문에 특별히 거짓말을 하는 것은 아닙니다. 그래서 이런 경우를 환각이라고 부르는 것 같습니다. 어떤 사람들은 저화질 이미지 파일로 고화잘 이미지를 얻는 경우로 비유를 했었습니다. 원래 이미지가 저화질이었기 때문에 고화질로 만들면서 이상한 결과가 나오는 일도 있을 수 있다는 거죠.
인공지능에 있어서 상당수는 왜 그런지 이해하지 못하고 결과론적으로 해석하는 경우가 많다고 봅니다. 대표적인 사후 해석의 사례 중 하나가 임베딩 벡터란는 것인데요. 언어 모델을 사용할 경우 man과 woman이란 단어를 보고 인공지능이 느끼는 거리(벡터)를 신경망 가운데서 꺼내고, king과 queen에서 느끼는 거리를 꺼내면 거리가 동일한 것으로 알려져 있습니다. 이 임베딩 벡터를 통해 인공지능이 단어의 의미와 공통점등을 찾는 것으로 추론하는데 이것은 개발자들이 전혀 의도한 것이 아니고요. 결과적으로 이런 현상이 발견되는 것입니다.
지금의 인공지능은 의도하지는 않았는데 우연히 단어의 의미적인 공통점과 차이점을 스스로 인지하고는 있고요. 글을 쓴 사람이 기분이 좋거나 나쁜 것, 별점을 좋게 줄 것일지 나쁘게 줄 것일지는 잘 맞추고 있습니다. 그리고 반대로 희안하게도 논리적, 산술적인 처리는 잘 못하고 있고요. 그래서 저는 맥락과 감성이라는 분야는 잘 따라 갈 수 있지 않을까 그런 기대를 해봅니다. 반면에 논리적인 흐름이나 복잡한 계산 이런 부분에서는 잘 못하지 않을까 생각이 드네요. 물론 이것도 지금 GPT3.5나 GPT4를 보고 생각하는 것이니 갑자기 인공지능의 발전이 완전히 다른 방향으로 갈수도 있겠지만요.
2년전 올린글인데 저는 이제 봤네요ㅜ 결코 단순하지않은 주제를 잘 설명해주시는군요. 진지한 고민끝에 현직 통번역사로서 설득력있게 개인적인 의견을 낸 것인것 같으니, 한줄글로 평가하기보다는 이런 의견도 있구나라고 생각하면 좋겠습니다
좋은 의견이십니다. 저 같은 견해를 가진 분들도 있을터이고 열심히 AI통번역을 연구하시는 분들은 또 다른 생각을 갖고 계시기도 하겠죠. 좋은 댓글 감사합니다.
언어를 인간 대신 인공지능이 대체할 수준이 된다면 변호사나 회계사 같은 다른 고도의 전문직군들의 업무중 상당부분 또한 꽤 대체되었을 거라고 생각해요. 사실 언어가 인간의 고유한 특성인데 이걸 기계가 간단히 대체할수 있을지는ㅋㅋㅋ 글쎄요..
영상 잘 잘봤습니다^^
ㅎ 고맙습니다^^ 앞으로도 Hwaiting 입니다~
영상 많이 도움되어요^^
제 영상 재밌게 봐 주셔서 감사합니다^^~
10년 안에 언어의 장벽은 무너집니다. 두고 보면 알겠죠
과학의 발전 속도가 빠르기에 그럴 수도 있겠죠. 하지만 이미 50년 전에도 언어 장벽이 10년 후면 무너진다고 했었죠. 2000년이면 수학여행을 달에 간다고 예상했고, 2010년 정도면 하늘을 나는 자동차가 나온다고 했었죠. 2000년이면 지구 인구가 폭발해 지구상에 더 이상 살 땅이 없어 우주로 이민을 가야한다고 했고, 석유는 40년 후면 고갈된다고 했었죠. 암도 정복된다고 했구요. 미래학자 토마스 프레이가 몇 년 전 드론 택배가 인간을 대신한다고 예언했었어요. 물론 모든 예상이 틀리는 것은 아닙니다. 맞아 떨어지는 것도 있고 더 일찍 이루어지는 것도 있겠죠. 과학 발전 미신의 가장 큰 문제는 시간이 지나면 과학이 발전해 모든 것이 가능해진다는 것입니다. 그러나 과학이 해결해 주는 문제가 있고 못하는 문제가 있어요. 언어도 감히 그 중의 하나라고 저는 생각해 영상을 만들어 봤습니다.