Podczepienie AI do "prawdziwego świata" faktycznie eliminuje problem silnego ograniczenia danych uczących. Wąskim gardłem staje się wtedy ilość pozyskanych danych i inne, celowe ograniczenia samej obserwacji (np. z powodu bezpieczeństwa). Z kolei w przypadku ludzi - każdy człowiek wykształca własne unikatowe zdanie o świecie na podstawie obserwacji ograniczonych historią własnego życia. Stąd ludzie mają w swoich głowach różne "modele świata", czasem wzajemnie sprzeczne, chociaż oglądają ten sam świat.
Problem o którym mówiłem dotyczy szczególnego scenariusza (uczenia modelu generatywnego na danych, które ten model sam generuje). AI wykorzystuje najróżniejsze techniki i algorytmy, i wiele z nich nie cierpi na ten problem. Żeby uniknąć omawianej sytuacji i "collapsu" można - pogodzić się z sytuacją niedoboru "prawdziwych" danych uczących i zadowolić się prostszym i mniej doskonałym modelem generatywnym, - prowadzić selekcję danych uczących odsiewając lub poprawiając błędne dane, - próbować pozyskać więcej "prawdziwych" danych (np. płacąc za nie albo automatyzując ich pozyskiwanie), - stosować tzw. uczenie aktywne żeby zmniejszyć zapotrzebowanie algorytmu na dane uczące (wtedy sam algorytm decyduje, jakich danych mu brakuje po to, by najbardziej polepszyć model - algorytm prosi o takie nowe dane, które wypełniają mu największe braki i niepewności w wiedzy), - ... Zatem "collaps" modelu jest faktycznie problemem w omawianym scenariuszu, ale istnieją różne sposoby przeciwdziałania.
To już się zaczyna - jak we wszystkich zawodach, od najniższych poziomów. Więc niektórzy na razie nie będą, a niektórzy początkujący już zostali zastąpieni...
ai musi uczyć się obserwując świat, na bieżąco analizując dane w nie ograniczonej ilości, mam na myśli robota
Podczepienie AI do "prawdziwego świata" faktycznie eliminuje problem silnego ograniczenia danych uczących. Wąskim gardłem staje się wtedy ilość pozyskanych danych i inne, celowe ograniczenia samej obserwacji (np. z powodu bezpieczeństwa).
Z kolei w przypadku ludzi - każdy człowiek wykształca własne unikatowe zdanie o świecie na podstawie obserwacji ograniczonych historią własnego życia. Stąd ludzie mają w swoich głowach różne "modele świata", czasem wzajemnie sprzeczne, chociaż oglądają ten sam świat.
Już się bałem, że w tym roku nie będzie podsumowania.
Pozdrawiam cieplutko
Również się bałem, a tymczasem... Tradycja!
Pozdrawiam także! 🖖
Super nagranie! Czyli nic nie uchroni nas przed collapsem ai?
Problem o którym mówiłem dotyczy szczególnego scenariusza (uczenia modelu generatywnego na danych, które ten model sam generuje). AI wykorzystuje najróżniejsze techniki i algorytmy, i wiele z nich nie cierpi na ten problem.
Żeby uniknąć omawianej sytuacji i "collapsu" można
- pogodzić się z sytuacją niedoboru "prawdziwych" danych uczących i zadowolić się prostszym i mniej doskonałym modelem generatywnym,
- prowadzić selekcję danych uczących odsiewając lub poprawiając błędne dane,
- próbować pozyskać więcej "prawdziwych" danych (np. płacąc za nie albo automatyzując ich pozyskiwanie),
- stosować tzw. uczenie aktywne żeby zmniejszyć zapotrzebowanie algorytmu na dane uczące (wtedy sam algorytm decyduje, jakich danych mu brakuje po to, by najbardziej polepszyć model - algorytm prosi o takie nowe dane, które wypełniają mu największe braki i niepewności w wiedzy),
- ...
Zatem "collaps" modelu jest faktycznie problemem w omawianym scenariuszu, ale istnieją różne sposoby przeciwdziałania.
@@Maciej.Komosinski Dziękuję za odpowiedź, z niecierpliwością czekam na kolejne nagrania :)
🤍🩶🖤🤎💜🩵💙💚💛🧡
czy programiści jeszcze nie będą zastąpieni ?
To już się zaczyna - jak we wszystkich zawodach, od najniższych poziomów. Więc niektórzy na razie nie będą, a niektórzy początkujący już zostali zastąpieni...