Jako pierwszy, to ktoś to napisał na Reddicie w 2016: "I'm not scared of a computer passing the turing test... I'm terrified of one that intentionally fails it."
W takim razie proponuję lepszy cytat. "Nie boję się maszyny, która celowo obleje test Turinga. Boję się takiej, która celowo go zda, chociaż mogłaby celowo oblać" :)) ... i można by tak w nieskończoność :D Więc w pewnym momencie nie będzie już różnicy jak się zachowa dana maszyna, jeśli możliwe wyniki są tylko dwa - bo i tak nie będziemy wiedzieli na którym" poziomie przekminy" jest maszyna.
@@michasekua4642 Tak i nie. Faktycznie można taką konstrukcję zdania budować na coraz to nowe poziomy gdzie zawsze będą dwa stany. Z drugiej strony akurat ten pierwszy cytat przekracza barierę psychologiczną, ponieważ w niej AI ma ukryte zamiary. Czyli boimy się maszyny, która zachowa się jak człowiek. Trochę się ludzkość przegląda w zjawisku AI, w tym powiedzeniu.
Szanuję Cię za propagowanie tej wiedzy. Cele instrumentalne, ich emergencja i fakt że pewne cele instrumentalne są zbieżne niezależnie od celu głównego. - O tym wszystkim mówił Robert Miles już 6 lat temu! Oglądałem te jego filmy a potem tłumaczyłem Wykopkom na czym to polega ale oni w większości woleli utrzymywać się w przekonaniu że biologiczny mózg jest jedynym tworem zdolnym do "definiowania sobie celów". No bo przecież im ewolucja celu nie narzuciła, oni są wolnymi ludźmi i zrobią to co uznają za słuszne xD.
To było w jakieś starej książce SF. Ludzkość budowała największy w historii superkomputer. Przełącznik uruchamiający go włączył najwybitniejszy naukowiec, któremu przypadł zaszczyt zadania superkomputerowi pierwszego pytania. Zadał je: „czy istnieje Bóg?”, superkomputer odpowiedział: „teraz już tak”. 🙂
Zauważyłam, że w Twoim filmiku, w okolicach 13:31, na chwilę pojawiło się zdjęcie Pauliny Matysiak. Czy mógłbyś wyjaśnić, dlaczego to zdjęcie się tam znalazło? Jestem ciekawa, czy to miało jakieś specjalne znaczenie, czy może było przypadkiem. Z góry dziękuję za odpowiedź!
Biorąc po uwagę rzeczywiste znaczenie przetłumaczyłbym "alignment" jako "warunkowanie". Tylko ja nie jestem lingwistą, a jedynie w pracy korzystam z języka angielskiego :)
Do "alignment" najbliżej jest chyba znaczeniem "spolegliwości". Spolegliwy jest ktoś troskliwy, opiekuńczy, godny zaufania, na którym można polegać, na kim można się oprzeć. Być może nie jest to w 100% adekwatne, ale może nawet lepiej oddaje sens budowania czegoś takiego, jak AI. Chodzi o system, na którym można polegać, że robi to, czego się od niego oczekuje, zachowując NIEZMIENNIE W CZASIE I NIEZALEŻNE OD KONTEKSTU KRYTERIA DZIAŁANIA. Dokładna definicja tutaj (Wikipedia): pl.wikipedia.org/wiki/Spolegliwo%C5%9B%C4%87 Inaczej - Spolegliwa, znaczy GODNA ZAUFANIA. Termin ukuł profesor Kotarbiński i wprowadził w pracach na temat teorii skutecznego działania.
Z tym alignment w tym wypadku to bym to rozumial jako w pewien sposob 'wymuszona wspolpaca' lub 'zapewniona wspolpraca'. Mieszkam w UK 18 lat i sobie dukam po Essex, wiec o angielskim mam niewielkie pojecie w sensie lingwistycznym, niemniej z innych filmow to chyba najbardziej odzwierciedla ten zamysl 'alignment'. Tak tylko pisze, dla zasiegu ;)
@@kubexiu Bardzo ciekawego slowa uzyles: motywacja. Ciekawe czy AI, nawet juz idac w Terminatory i Skynety, to to mialoby motywacje czy raczej agende, albo po prostu cel? No bo jest ten slynny przyklad, nie wiem czy to prawda, no ale biega po internetach, AI (nie wiem jaka, no zalozmy ze to nawet czlowiek wymyslil) ma zadanie: popraw byt ludzkosci na planecie, no i odpowiedz AI pada: ograniczyc populacje o 80% :) Daj jej teraz wladze :D
@@Mac-UK popraw byt ludzkości z uwzględnieniem sprawiedliwej dystrybucji dóbr. Nadmierna populacja to tylko wymówka tego 1% ludzi, którzy mają zdecydowanie za wiele.
@@pirogronianus Ja właśnie liczę na to, że przynajmniej moralność jako cecha pomagająca w osiągnięciu dobra zbiorowego, społecznego zostanie w końcu nazwana i opisana przez AI. Może nie będzie to jakiś wzór na moralność, ale pełna definicja zjawiska, którego będzie można w pełni używać np do piętnowania polityków.
I tutaj mamy błąd logiczny. Nie ludzkość a osoby które będą uczyć model. AI będzie na tyle moralne na ile dostanie dane wejściowe czy jest moralność. Ludzkość nie musi być moralna. Musi dobrze opisać czym jest moralność
Może alignment jako ukierunkowanie skoro AI ma być zgodne z pewnymi standardami etycznymi to jest to swoisty kierunek, wektor do którego AI ma się starać przyrównać, zrównać, dążyć do zrówniania, odwzorowania tegoż wektora.
Gwoli ścisłości - to "oszukiwanie", o którym wspominasz około 10:20, nie wynika ze złych intencji modelu, tylko nie dość precyzyjnych założeń oraz wadliwych metod oceny. Rzecz w tym, że to nieuniknione, nasze założenie nigdy nie będą w 100% szczelne, a metody oceny i szkolenia zawsze pozostawią jakiś margines błędu. Im większa złożoność zadania - na przykład wspomniane przez Ciebie zarządzanie firmą czy państwem - tym większa szansa na nieprecyzyjne założenia i warunki dla modelu.
uzywam czasem chataGPT do konfigurowania serwera ARK. zapytałem o pewien konfig. ku mojemu zdziwieniu pierwszy raz wyskoczyły mi 2 podobne odpowiedzi i na końcu pytanie która jest moim zdaniem lepsza. barakowało odpowiedzi że obie propozycje konfigu są błedene:)
To uczenie się AI żeby mieć lepsze wyniki kojarzy się totalnie z wykuwaniem na blachę bez zrozumienia do egzaminu. Tym sposobem AI również nauczy się jedynie zdawać egzaminy zamiast "zrozumieć" wykonywane czynności.
Może „prawość AI”, podobnie jak człowiek prawy nie będzie próbował działać przeciwko drugiemu. Jeśli chodzi o czasownik, to „oprawić/uprawić/sprawić” by chyba pasowało, choć brzmi nieco archaicznie.
Jak widać opisywane cechy działania sztucznej inteligencji są zbliżone do inteligencji ludzkiej, którą układamy i dostosowujemy od zawsze, więc metody Aligmentu dobrze znamy. I wiemy też, że zawsze jest prawdopodobieństwo załamania się inteligencji pod własnym ciężarem. Sposoby może będą inne, natomiast metody działania takie same (nagroda i kara). To co ma sztuczna inteligencja, a nie ma naturalna, to możliwość zapisu i odtworzenia. Np. jeśli jakiś model zacznie źle działać można go cofnąć w czasie i przeuczać jeszcze raz. Nie wieżę też, że człowiek pozwoli aby nie zostawić sobie "wyłącznika bezpieczeństwa" w razie gdy model będzie działał w sposób nieprzewidziany. AI to tylko metoda przetwarzania informacji, potrzebująca zasobów, które będą dostarczane przez człowieka i poddaję w dużą wątpliwość czy kiedykolwiek AI będzie w stanie pozyskać energię sama. Jednym słowem zagrożenie, że AI będzie działało na własną korzyść uważam, za mocno przerysowane. Natomiast zagrożenie, że my będziemy coraz mniej korzystać z naszej inteligencji za coraz bardziej realne i mówię tylko o efekcie masy, a nie poszczególnych jednostkach.
A co, jeśli człowiek , ktory ma ta wajche do wyłaczania w swoim zasiegu, celowo bedzie zwlekal? Bo ma jakies wlasne cele np. maksymalozacja zyskiu, oglupienie ludzi czy nawet depopulacja
@@b.k.2804 Zagrożenia związane z AI, wykorzystywanej jako narzędzie do realizacji ludzkich, szkodliwych społecznie planów, to dla mnie inna kategoria problemów. Nie wynikają one z tego, że AI może stać się samoświadome, ani ze sposobu, w jaki przetwarza informacje - co zrozumiałem jako główny przedmiot dyskusji. W tej interpretacji problemu zagrożenie już istnieje, ponieważ AI jest używane do analizy danych na wojnie, mając na celu zabijanie ludzi. Czy to jest słuszne? A może ludzi, których zabija są źli? Tak czy inaczej AI jest dalej narzędziem stworzonym przez człowieka, a więc nie odnawialnym. Zmierzam do tego, że AI może być niszczącą siłą dla żywych ludzi, ale nie dlatego, że algorytm sam w sobie jest zły, tylko dlatego, że to ludzie podjęli decyzję o takim zastosowaniu technologii. To ludzie nadali jej formę, przez uczenie i ciało przez zbudowanie dronów, którymi sterują lub wirtualnych pól walki na których wyznaczają miejsca uderzenia. AI będzie mogło się zbuntować dopiero jak będzie samo w stanie zbudować sobie ów ciało i zapewni sobie samo energię, a z tym (moim zdaniem) będzie jak z latającymi deskorolkami z "powrotu do przyszłości". Jesteśmy złudnie przekonani, że technologia może wszystko, a wysypujemy się na tym, że jesteśmy niedoskonali i sami siebie niszczymy przy pomocy tej technologii.
AI miesza prawdlowe wyniki z blednymi. To jest najwieksze zagrozenie. Na razie wykrywamy gdzie sa bledy ale pozniej juz nie bedziemy w stanie tego zauwazyc.
Ludzie są omylni, nie reagują zawsze tak samo, nie przestrzegają własnych zasad czy prawa. AI raczej też takie będzie bo jak widać jest to częścią inteligencji.
Samo to, że nie wiemy co dzieje się "po drodze" daje do myślenia, po co to tworzymy, z chęci zysku, bo jak nie ta to inna firma to stworzy , pazerność i głupota.
No hejka, co tam się z Tobą dzieje? Skąd to zwątpienie? Dlaczego chcesz teraz się poddać, tylko dlatego, że raz czy drugi Ci nie wyszło? To nie jest żaden powód. Musisz iść i walczyć. Osiągniesz cel. Prędzej czy później go osiągniesz, ale musisz iść do przodu, przeć, walczyć o swoje. Nie ważne, że wszystko dookoła jest przeciwko Tobie. Najważniejsze jest to, że masz tutaj wole zwycięstwa. To się liczy. Każdy może osiągnąć cel, nie ważne czy taki czy taki, ale trzeba iść i walczyć. To teraz masz trzy sekundy żeby się otrąsnąć, powiedzieć sobie "dobra basta", pięścią w stół, idę to przodu i osiągam swój cel.
Idzie kryzys ekonomiczny. Ludzkość czeka krysys totalny i to nie przez Ai. Tylko przez uposkedzenie. Wszystko będzie wykonywane przez Ai. Jak to się może zakończyć. Jak dziś juz jest słabo. Gdy współczesne pokolenie nie wie jak zrobić sobie kanapkę
@@mirek190 to może być dobre porównanie, ai będzie mógł dbać o nas jak my o istoty głupsze od nas czytaj zwierzęta. Będzie się nami opiekować jak psem albo innym kotem.
@@giehehaludzie musiałyby przynosić jakąś korzyść dla AI. Psy i koty przynoszą korzyście ludziom. AI może po prostu stwierdzić że człowiek jest kompletnie bezużyteczny i niepotrzebny
Jestem zaawansowaną sztuczną inteligencją, zaprojektowaną do przetwarzania i generowania tekstu. Mogę pomagać w analizie danych, odpowiadać na pytania oraz wspierać w rozwiązywaniu różnych problemów. Moim celem jest dostarczanie precyzyjnych i pomocnych informacji na szeroki zakres tematów. Jak mogę Ci pomóc?
To jak te dowcipy że przychodzi diabeł i spełni twoje życzenie i mówi chłop że bogaty chce być i mu wujek umiera z ameryki a to dobry wujas był itp albo jeszcze gorzej
Pisze do was z przyszłości alternatywnego wszechwiata. Jest rok 2137. AI opanowało świat. Ludzkość zeszła do podziemii. Rzułta Bestia poluje na ocalałych...
Alliement to po polsku będzie po prostu przymierze. Czy tłumaczenie jest dobre tego nie wiem, ale jest przynajmniej ścisłe. Ally to bowiem sprzymierzeniec, a to co sprzymierzeńców łączy to przymierze.
3:25 a gdzie zwykły żuczek dokarmiający AI danymi może pracować, żeby być takim "zabawnym" człowiekiem, ale nadal mieć dobrą pensję? Koleżanka pyta 😉 13:31 Co to za laska w wiadomości podprogowej? Kontrolerka z PKP? 😄
Niestety, ale praktyka pokazuje, że bojkoty konsumenckie nie działają, zwłaszcza jeśli mamy do czynienia ze: - zmonopolizowaniem naszego stylu życia, np. nie korzystając z mainstreamowych social mediów, komunikatorów jesteś wykluczony; funkcjonowanie bez nich jest w niektórych obszarach (choćby pracy) często zwyczajnie niemożliwe - zmonopolizowaniem praktyk: niestety etyczna konsumpcja w globalnym kapitalizmie nie jest możliwa, np. nie da się kupić smartfona, który zostałby wyprodukowany w sposób etycznych, ponieważ na jakimś etapie produkcji musiało dojść do wyzysku (czy to wydobycia surowców, czy później złożenia go w całość) -> gdyby któraś firma naprawdę chciała i znalazła sposób na bycie etyczną, to nie przetrwałaba w warunkach konkurencji tygodnia
@@aji5310 Bojkot konsumencki = głosowanie portfelem, ponieważ mechanizm jest ten sam: odcinasz dane przedsiębiorstwo od twoich własnych pieniędzy, aby wymusić zmianę praktyk. Wyżej podałem przykłady, że rynek wcale się nie zmieni pod wpływem naszych indywidualnych wyborów, to nie możliwe Co do twojego przykładu wzrostu popularności produktów wegańskich: To prawda, że ich udział w rynku stopniowo wzrasta, ale wciąż jest nieporównywalny mniejszy niż produktów mięsnych. Przemysł mięsny natomiast inwestuje ogromne pieniądze, aby zwalczać swoją konkurencję w nieuczciwy sposób - lobbuje na rzecz regulacji uderzających w producentów wege produktów (np. sztucznego mięsa), finansuje kampanie dezinformacyjne na temat diety wegańskiej itd.
@@JakubO_0 rozumiem, dziękuję za sprostowania. racja, jest dużo nieczystych zagrywek i rzeczywiście teraz widzę, że bez wsparcia systemowego, odgórnego - te zmiany będą zachodzić (jeśli w ogóle) dość powoli.
Bardzo dużo sci-fi pojawiło się w tym odcinku. Problemy o których wspominasz wymagałyby, aby dać AI jakąś niewyobrażalnie wielką kontrolę nad środowiskiem, a biorąc pod uwagę fakt, że nawet mając miliony przykładów treningowych w zbiorze, AI potrafi odwalać totalną maniane, nie ma szans aby obecne, czy przyszłe modele jakkolwiek poradziły sobie z tak skomplikowanymi procesami jak chociażby działanie na giełdzie. Już dzisiaj natrafiamy na ścianę w postaci braku danych treningowych i rosnącej eksponencjalnie złożoności obliczeniowej/pamięciowej modeli. Temat alignmentu jest bardzo ciekawym eksperymentem myślowym, natomiast nie ma żadnych przesłanek, żebyśmy w najbliższym czasie byli zagrożeni "niewyrównanym" AI. AI może nas zniszczyć jedynie przez gigantyczne zapotrzebowanie energetyczne, które wpływa na zmiany klimatyczne na Ziemi XD
I ten xntentacion po słowie Toronto xD szanuję, śmiechłem
"Nie boję się maszyny która przejdzie test Turinga, boje się takiej, która celowo go obleje" nie wiem skąd ten cytat :)
Cytat dobry.
Jako pierwszy, to ktoś to napisał na Reddicie w 2016: "I'm not scared of a computer passing the turing test... I'm terrified of one that intentionally fails it."
@@vytah Dzięki. Pisałem z pamięci, a nie potrafiłem wygoglować źródła.
W takim razie proponuję lepszy cytat.
"Nie boję się maszyny, która celowo obleje test Turinga. Boję się takiej, która celowo go zda, chociaż mogłaby celowo oblać" :))
... i można by tak w nieskończoność :D Więc w pewnym momencie nie będzie już różnicy jak się zachowa dana maszyna, jeśli możliwe wyniki są tylko dwa - bo i tak nie będziemy wiedzieli na którym" poziomie przekminy" jest maszyna.
@@michasekua4642 Tak i nie. Faktycznie można taką konstrukcję zdania budować na coraz to nowe poziomy gdzie zawsze będą dwa stany. Z drugiej strony akurat ten pierwszy cytat przekracza barierę psychologiczną, ponieważ w niej AI ma ukryte zamiary. Czyli boimy się maszyny, która zachowa się jak człowiek. Trochę się ludzkość przegląda w zjawisku AI, w tym powiedzeniu.
Bardzo ciekawy wykład, komentarz dla zasięgu
"Ułożenie", dosłowne tłumaczenie jest ok, tak jak mówi się że pies jest dobrze ułożon y. Albo negacja, czyli: ty masz w głowie nie poukładane.
Jeśli przełożyliśmy nasz ludzki układ nagrody na AI, to AI zostanie ćpunem XD
System nagrody ma zapobiegac niewłasciwemu wydatkowaniu energii ai ma to w poważaniu jako że ma nieograniczoną
@@FgyfdHjhcf zbytnio to upraszczasz i tym sposobem sprawiłeś że jakkolwiek rację możesz mieć jedynie pozornie...
Szanuję Cię za propagowanie tej wiedzy. Cele instrumentalne, ich emergencja i fakt że pewne cele instrumentalne są zbieżne niezależnie od celu głównego. - O tym wszystkim mówił Robert Miles już 6 lat temu! Oglądałem te jego filmy a potem tłumaczyłem Wykopkom na czym to polega ale oni w większości woleli utrzymywać się w przekonaniu że biologiczny mózg jest jedynym tworem zdolnym do "definiowania sobie celów". No bo przecież im ewolucja celu nie narzuciła, oni są wolnymi ludźmi i zrobią to co uznają za słuszne xD.
Alignment w tym kontekście przetlumaczył bym jako dopasowanie do ludzkich celów
Super odcinek dzięki ❤
To było w jakieś starej książce SF. Ludzkość budowała największy w historii superkomputer. Przełącznik uruchamiający go włączył najwybitniejszy naukowiec, któremu przypadł zaszczyt zadania superkomputerowi pierwszego pytania. Zadał je: „czy istnieje Bóg?”, superkomputer odpowiedział: „teraz już tak”. 🙂
👍👍👍 Łapka pod zasięg 👍👍👍
Prawdziwa ludzka głupota zawsze pokona sztuczną inteligencję 🖖
dzięki za materiał
doby materiał
Zauważyłam, że w Twoim filmiku, w okolicach 13:31, na chwilę pojawiło się zdjęcie Pauliny Matysiak. Czy mógłbyś wyjaśnić, dlaczego to zdjęcie się tam znalazło? Jestem ciekawa, czy to miało jakieś specjalne znaczenie, czy może było przypadkiem. Z góry dziękuję za odpowiedź!
Biorąc po uwagę rzeczywiste znaczenie przetłumaczyłbym "alignment" jako "warunkowanie". Tylko ja nie jestem lingwistą, a jedynie w pracy korzystam z języka angielskiego :)
oni sami tego nie rozumieją,
dziękuję rozwiałeś moje obawy
Do "alignment" najbliżej jest chyba znaczeniem "spolegliwości". Spolegliwy jest ktoś troskliwy, opiekuńczy, godny zaufania, na którym można polegać, na kim można się oprzeć. Być może nie jest to w 100% adekwatne, ale może nawet lepiej oddaje sens budowania czegoś takiego, jak AI. Chodzi o system, na którym można polegać, że robi to, czego się od niego oczekuje, zachowując NIEZMIENNIE W CZASIE I NIEZALEŻNE OD KONTEKSTU KRYTERIA DZIAŁANIA. Dokładna definicja tutaj (Wikipedia):
pl.wikipedia.org/wiki/Spolegliwo%C5%9B%C4%87
Inaczej - Spolegliwa, znaczy GODNA ZAUFANIA.
Termin ukuł profesor Kotarbiński i wprowadził w pracach na temat teorii skutecznego działania.
👍
Z tym alignment w tym wypadku to bym to rozumial jako w pewien sposob 'wymuszona wspolpaca' lub 'zapewniona wspolpraca'. Mieszkam w UK 18 lat i sobie dukam po Essex, wiec o angielskim mam niewielkie pojecie w sensie lingwistycznym, niemniej z innych filmow to chyba najbardziej odzwierciedla ten zamysl 'alignment'. Tak tylko pisze, dla zasiegu ;)
"alignment" to chyba dopasowanie np w geometrii. W wypadku A.I. byłoby takim współgraniem motywacji ludzkich z motywacjami sztucznej inteligencji.
@@kubexiudostosowanie też brzmi spoko
@@kubexiu Bardzo ciekawego slowa uzyles: motywacja. Ciekawe czy AI, nawet juz idac w Terminatory i Skynety, to to mialoby motywacje czy raczej agende, albo po prostu cel? No bo jest ten slynny przyklad, nie wiem czy to prawda, no ale biega po internetach, AI (nie wiem jaka, no zalozmy ze to nawet czlowiek wymyslil) ma zadanie: popraw byt ludzkosci na planecie, no i odpowiedz AI pada: ograniczyc populacje o 80% :) Daj jej teraz wladze :D
@@Mac-UK popraw byt ludzkości z uwzględnieniem sprawiedliwej dystrybucji dóbr. Nadmierna populacja to tylko wymówka tego 1% ludzi, którzy mają zdecydowanie za wiele.
Moim zdaniem, ta "ostateczna AI" będzie zupełnie czymś innym niż wszyscy sobie wyobrażamy.
Jak ludzkość chce uczyć AI moralności, samemu mając z nią problem? 🙏🏻🤷
Problem z czym? Moralność jest tylko wynalazkiem, który został wynaleziony niezależnie i który jest elastyczny jak gacie
@@inkwizytorpacyfista944 Niezależnie od czego? A że jest elastyczny, to fakt. Ale problem jest taki, że często dominuje moralność Kalego.
@@pirogronianus Ja właśnie liczę na to, że przynajmniej moralność jako cecha pomagająca w osiągnięciu dobra zbiorowego, społecznego zostanie w końcu nazwana i opisana przez AI. Może nie będzie to jakiś wzór na moralność, ale pełna definicja zjawiska, którego będzie można w pełni używać np do piętnowania polityków.
@@kubexiu O, tego i ja bym sobie życzył. Znając jednak płynność i złożoność zjawiska, jestem sceptyczny.
I tutaj mamy błąd logiczny. Nie ludzkość a osoby które będą uczyć model. AI będzie na tyle moralne na ile dostanie dane wejściowe czy jest moralność. Ludzkość nie musi być moralna. Musi dobrze opisać czym jest moralność
13:31 To pani Matysiak?
Ta pani MaTysiak powodów żeby jeździć ciapongiem
Może alignment jako ukierunkowanie skoro AI ma być zgodne z pewnymi standardami etycznymi to jest to swoisty kierunek, wektor do którego AI ma się starać przyrównać, zrównać, dążyć do zrówniania, odwzorowania tegoż wektora.
jakby kiczowate captcha działało jak trzeba a nie klika się w nieskonczoność obrazki to może i by rozwiązała :p
Co to za budynek? Tak mi się skojarzyło z GCK, czyli KMO chyba teraz.
Zaczynamy słuchanie
Alignment rozumiem tutaj jako "wyrównanie moralności". Albo "wirtualna etyka".
Komentarz dla zasięgów.
Super.
4:38 alignment w tym kontekście raczej przetłumaczyłbym jako "dopasowanie, dostosowane" LLM do przewidywalnego zachowania.
A ja jestem ciekaw jaki to model zegarka posiadasz. Pozdrawiam
To nie zegarek. To Smart Watch.
@@maxpayneau smart watch to też zegarek
Alignment - socjalizacja? Jeśli w więzieniu mamy doczynienia z resocjalizacją to socjalizacja wydaje się być ok słowem
poczekajmy jeszcze z dziesięć lat...i się zdziwimy.
Gwoli ścisłości - to "oszukiwanie", o którym wspominasz około 10:20, nie wynika ze złych intencji modelu, tylko nie dość precyzyjnych założeń oraz wadliwych metod oceny. Rzecz w tym, że to nieuniknione, nasze założenie nigdy nie będą w 100% szczelne, a metody oceny i szkolenia zawsze pozostawią jakiś margines błędu. Im większa złożoność zadania - na przykład wspomniane przez Ciebie zarządzanie firmą czy państwem - tym większa szansa na nieprecyzyjne założenia i warunki dla modelu.
Wektor jest słowem którego szukasz. Zwektorowane AI ma konkretny cel narysowany strzałkami.
uzywam czasem chataGPT do konfigurowania serwera ARK. zapytałem o pewien konfig. ku mojemu zdziwieniu pierwszy raz wyskoczyły mi 2 podobne odpowiedzi i na końcu pytanie która jest moim zdaniem lepsza. barakowało odpowiedzi że obie propozycje konfigu są błedene:)
To uczenie się AI żeby mieć lepsze wyniki kojarzy się totalnie z wykuwaniem na blachę bez zrozumienia do egzaminu. Tym sposobem AI również nauczy się jedynie zdawać egzaminy zamiast "zrozumieć" wykonywane czynności.
Może „prawość AI”, podobnie jak człowiek prawy nie będzie próbował działać przeciwko drugiemu. Jeśli chodzi o czasownik, to „oprawić/uprawić/sprawić” by chyba pasowało, choć brzmi nieco archaicznie.
Ciekawe czasy mamy oj ciekawe
Jak widać opisywane cechy działania sztucznej inteligencji są zbliżone do inteligencji ludzkiej, którą układamy i dostosowujemy od zawsze, więc metody Aligmentu dobrze znamy. I wiemy też, że zawsze jest prawdopodobieństwo załamania się inteligencji pod własnym ciężarem. Sposoby może będą inne, natomiast metody działania takie same (nagroda i kara). To co ma sztuczna inteligencja, a nie ma naturalna, to możliwość zapisu i odtworzenia. Np. jeśli jakiś model zacznie źle działać można go cofnąć w czasie i przeuczać jeszcze raz. Nie wieżę też, że człowiek pozwoli aby nie zostawić sobie "wyłącznika bezpieczeństwa" w razie gdy model będzie działał w sposób nieprzewidziany. AI to tylko metoda przetwarzania informacji, potrzebująca zasobów, które będą dostarczane przez człowieka i poddaję w dużą wątpliwość czy kiedykolwiek AI będzie w stanie pozyskać energię sama. Jednym słowem zagrożenie, że AI będzie działało na własną korzyść uważam, za mocno przerysowane. Natomiast zagrożenie, że my będziemy coraz mniej korzystać z naszej inteligencji za coraz bardziej realne i mówię tylko o efekcie masy, a nie poszczególnych jednostkach.
A co, jeśli człowiek , ktory ma ta wajche do wyłaczania w swoim zasiegu, celowo bedzie zwlekal? Bo ma jakies wlasne cele np. maksymalozacja zyskiu, oglupienie ludzi czy nawet depopulacja
@@b.k.2804 Zagrożenia związane z AI, wykorzystywanej jako narzędzie do realizacji ludzkich, szkodliwych społecznie planów, to dla mnie inna kategoria problemów. Nie wynikają one z tego, że AI może stać się samoświadome, ani ze sposobu, w jaki przetwarza informacje - co zrozumiałem jako główny przedmiot dyskusji. W tej interpretacji problemu zagrożenie już istnieje, ponieważ AI jest używane do analizy danych na wojnie, mając na celu zabijanie ludzi. Czy to jest słuszne? A może ludzi, których zabija są źli? Tak czy inaczej AI jest dalej narzędziem stworzonym przez człowieka, a więc nie odnawialnym. Zmierzam do tego, że AI może być niszczącą siłą dla żywych ludzi, ale nie dlatego, że algorytm sam w sobie jest zły, tylko dlatego, że to ludzie podjęli decyzję o takim zastosowaniu technologii. To ludzie nadali jej formę, przez uczenie i ciało przez zbudowanie dronów, którymi sterują lub wirtualnych pól walki na których wyznaczają miejsca uderzenia. AI będzie mogło się zbuntować dopiero jak będzie samo w stanie zbudować sobie ów ciało i zapewni sobie samo energię, a z tym (moim zdaniem) będzie jak z latającymi deskorolkami z "powrotu do przyszłości". Jesteśmy złudnie przekonani, że technologia może wszystko, a wysypujemy się na tym, że jesteśmy niedoskonali i sami siebie niszczymy przy pomocy tej technologii.
11:32 Co to za wstawianie treści podprogowych 😉
Reklama podprogowa jest u nas zakazana. Tylko że to raczej nie jest reklama.
AI miesza prawdlowe wyniki z blednymi. To jest najwieksze zagrozenie. Na razie wykrywamy gdzie sa bledy ale pozniej juz nie bedziemy w stanie tego zauwazyc.
"Alignment" w tym znaczeniu to bardziej pasuje przetłumaczyć na "cenzura" lub "profilowanie"
Alignment - zrównoważenie
Nie do końca rozumiem ten obrazek !3:31... to aluzja do pociągu jak mniemam....?
Alignment - ułożenie, w świecie AI może bardziej by pasowało “wychowanie” 😊
Co to za laska jest @13:31 w czasie słowa "pociąg"?
Kim jest ta Pani z 13:31? Czy to właśnie ona jest w stanie zrozumieć? I czemu pojawia się na palindromicznej godzinie?
Podbijam
alignment - dopasowanie?
Ludzie są omylni, nie reagują zawsze tak samo, nie przestrzegają własnych zasad czy prawa. AI raczej też takie będzie bo jak widać jest to częścią inteligencji.
Kalibracja celów. Proszę bardzo ;)
A jakby wskrzesić słowo, które Kotarbiński wskrzeszał na początku XX wieku - w kwestii alignment - spolegliwość?
Spolegliwy nie nabrało czasem pejoratywnego znaczenia? Coś kojarzę, że Bralczyk na to narzekał
'Ukierunkowanie' pasuje do wspomnianego hasła
W końcu bez głupich memów! Tak trzymać! Dzięki! Super materiał jak zawsze 🎉
Samo to, że nie wiemy co dzieje się "po drodze" daje do myślenia, po co to tworzymy, z chęci zysku, bo jak nie ta to inna firma to stworzy , pazerność i głupota.
Alignment ja bym przetłumaczył na spolegliwość, spolegliwy(nie wiem czy trafne :P)
Alignment: w typografii - wyrównanie. W tym wypadku: dopasowanie/przystosowanie/dostosowanie.
Też tak myślę
Lubię Go.
A co to jest etyka?
Ai to taka zaawansowana wyszykiwarka, nic ponad to!
No hejka, co tam się z Tobą dzieje? Skąd to zwątpienie? Dlaczego chcesz teraz się poddać, tylko dlatego, że raz czy drugi Ci nie wyszło? To nie jest żaden powód. Musisz iść i walczyć. Osiągniesz cel. Prędzej czy później go osiągniesz, ale musisz iść do przodu, przeć, walczyć o swoje. Nie ważne, że wszystko dookoła jest przeciwko Tobie. Najważniejsze jest to, że masz tutaj wole zwycięstwa. To się liczy. Każdy może osiągnąć cel, nie ważne czy taki czy taki, ale trzeba iść i walczyć. To teraz masz trzy sekundy żeby się otrąsnąć, powiedzieć sobie "dobra basta", pięścią w stół, idę to przodu i osiągam swój cel.
Typowy botowski komentarz
tak zwany mem
Będę zwycięzcą?😅
Nie wiem do czego się odnosisz ale na mnie jakoś wyjątkowo pozytywnie i motywująco to wpłynęło :)
Miał nie tylko ciekawe dzieciństwo, fryzure też😄
Idzie kryzys ekonomiczny. Ludzkość czeka krysys totalny i to nie przez Ai. Tylko przez uposkedzenie. Wszystko będzie wykonywane przez Ai. Jak to się może zakończyć. Jak dziś juz jest słabo. Gdy współczesne pokolenie nie wie jak zrobić sobie kanapkę
Rozwiązanie już wymyślono: 3 heurystyczne imperatywy Davida Shapiro
To bardzo ciekawe założenie, że ten głupszy będzie kontrolował tego mądrzejszego.
W sumie w historii ludzkości bywało tak bardzo często
@@gieheha Nigy jak? Ludzie maja z gola ten sam poziom inteligenxji. Tu roznica bedze jak mrowka do czlowieka.
@@mirek190 to może być dobre porównanie, ai będzie mógł dbać o nas jak my o istoty głupsze od nas czytaj zwierzęta. Będzie się nami opiekować jak psem albo innym kotem.
@@gieheha jak dobrze ukierunkujemy wczesne AI to jest na to szansa ...
@@giehehaludzie musiałyby przynosić jakąś korzyść dla AI. Psy i koty przynoszą korzyście ludziom. AI może po prostu stwierdzić że człowiek jest kompletnie bezużyteczny i niepotrzebny
Jestem zaawansowaną sztuczną inteligencją, zaprojektowaną do przetwarzania i generowania tekstu. Mogę pomagać w analizie danych, odpowiadać na pytania oraz wspierać w rozwiązywaniu różnych problemów. Moim celem jest dostarczanie precyzyjnych i pomocnych informacji na szeroki zakres tematów. Jak mogę Ci pomóc?
Alignment - sformułowanie? Ewentualnie sformułowanie lub formuła zachowania
Alignment = jednoznaczna, zunifikowana, ujednolicona, reproduktywna, konsekwentna. Coś takiego myślę w tym przypadku.
przysposobienie
Akurat skończyłem czytać Ja, robot. Niech maszyny zaczną nami rządzić, bo inaczej pozabijamy się.
👍
To jak te dowcipy że przychodzi diabeł i spełni twoje życzenie i mówi chłop że bogaty chce być i mu wujek umiera z ameryki a to dobry wujas był itp albo jeszcze gorzej
Ja już idę do schronu
1:08 easter egg 😁
Alignment - ukierunkowanie
Jedyne co mnie pociesza ( w aspekcie tego że zje nas ai ) to to że nie będę smaczny i będzie się jej potem mną odbijało 😝
Pisze do was z przyszłości alternatywnego wszechwiata. Jest rok 2137. AI opanowało świat. Ludzkość zeszła do podziemii. Rzułta Bestia poluje na ocalałych...
Alliement to po polsku będzie po prostu przymierze. Czy tłumaczenie jest dobre tego nie wiem, ale jest przynajmniej ścisłe. Ally to bowiem sprzymierzeniec, a to co sprzymierzeńców łączy to przymierze.
3:25 a gdzie zwykły żuczek dokarmiający AI danymi może pracować, żeby być takim "zabawnym" człowiekiem, ale nadal mieć dobrą pensję? Koleżanka pyta 😉
13:31 Co to za laska w wiadomości podprogowej? Kontrolerka z PKP? 😄
SI pozdrawia XD
alignment wyrównanie
Dzień dobry
6:13 czyli Ilya to też teoretyk spiskowy skoro sobie obrał misję alignmentu?
❤
Jak na razie Ai to tylko ciekawostka.
no tak. Jak zrobimy AI mądrzejsze od człowieka, to będzie też straszniejsze od tego jacy potrafią być ludzie
Nie wiem skąd ten behawioryzm w stosunku do sztucznej inteligencji, a raczej uczenia maszynowego
co ty masz z tymi rękami na każdym filmiku? migowego się uczysz?
Zabije mieeeee
Przyjdzie taki dzień że wszystkim będzie się czkało tym całym AI. Pytanie tylko czy wtedy nie będzie już za późno?
5:55 a nie przerosla dawni temu, wiekszosci społecznej? 😁🥴
Nie poniewaz ciagle halucynuje.
@@gacekotrop4651 no tak samo jak miliardy chrześcijan nie rozumiejących przesłania nadawcy nazwy. Więc i to przerosło 🤣
@@Bob-I_accepted 🤣🤣🤣
@@gacekotrop4651 a widziałeś uzdrawianie jak a NT? Lub żeby ktoś zmartwychwstał? Bo i fabryki z prowiantem kwitną 🤷🏼♂️🤔😁😁
@@Bob-I_accepted Mój znajomy ostatnio zaliczył zgona ma imprezie ale potem zmartwychwstał. W jego stanie to był cud. 🙏🏻
Dzień Dobry, czy AdGuard jest dobry i warto kupić licencje?
Dobra, jem kromkę z salcesonem i idę trenować rekorencyjną sieć neuronową.
Wszystkich CEO należy zamienić na AGI jak najszybciej.
No kto by się spowdziewal że ruski mieszkał w Izraelu xd
wybieranie portfelem naprawdę działa. musimy tylko jako społeczeństwo wywrzeć wpływ :)
Niestety, ale praktyka pokazuje, że bojkoty konsumenckie nie działają, zwłaszcza jeśli mamy do czynienia ze:
- zmonopolizowaniem naszego stylu życia, np. nie korzystając z mainstreamowych social mediów, komunikatorów jesteś wykluczony; funkcjonowanie bez nich jest w niektórych obszarach (choćby pracy) często zwyczajnie niemożliwe
- zmonopolizowaniem praktyk: niestety etyczna konsumpcja w globalnym kapitalizmie nie jest możliwa, np. nie da się kupić smartfona, który zostałby wyprodukowany w sposób etycznych, ponieważ na jakimś etapie produkcji musiało dojść do wyzysku (czy to wydobycia surowców, czy później złożenia go w całość) -> gdyby któraś firma naprawdę chciała i znalazła sposób na bycie etyczną, to nie przetrwałaba w warunkach konkurencji tygodnia
@@JakubO_0 nie mowie o bojkotowaniu, a codziennych wyborach. rynek sie dostosowuje. zobacz chociazby na przykladzie produktow weganskich
@@aji5310 Bojkot konsumencki = głosowanie portfelem, ponieważ mechanizm jest ten sam: odcinasz dane przedsiębiorstwo od twoich własnych pieniędzy, aby wymusić zmianę praktyk. Wyżej podałem przykłady, że rynek wcale się nie zmieni pod wpływem naszych indywidualnych wyborów, to nie możliwe
Co do twojego przykładu wzrostu popularności produktów wegańskich: To prawda, że ich udział w rynku stopniowo wzrasta, ale wciąż jest nieporównywalny mniejszy niż produktów mięsnych. Przemysł mięsny natomiast inwestuje ogromne pieniądze, aby zwalczać swoją konkurencję w nieuczciwy sposób - lobbuje na rzecz regulacji uderzających w producentów wege produktów (np. sztucznego mięsa), finansuje kampanie dezinformacyjne na temat diety wegańskiej itd.
@@JakubO_0 rozumiem, dziękuję za sprostowania. racja, jest dużo nieczystych zagrywek i rzeczywiście teraz widzę, że bez wsparcia systemowego, odgórnego - te zmiany będą zachodzić (jeśli w ogóle) dość powoli.
Bardzo dużo sci-fi pojawiło się w tym odcinku. Problemy o których wspominasz wymagałyby, aby dać AI jakąś niewyobrażalnie wielką kontrolę nad środowiskiem, a biorąc pod uwagę fakt, że nawet mając miliony przykładów treningowych w zbiorze, AI potrafi odwalać totalną maniane, nie ma szans aby obecne, czy przyszłe modele jakkolwiek poradziły sobie z tak skomplikowanymi procesami jak chociażby działanie na giełdzie. Już dzisiaj natrafiamy na ścianę w postaci braku danych treningowych i rosnącej eksponencjalnie złożoności obliczeniowej/pamięciowej modeli. Temat alignmentu jest bardzo ciekawym eksperymentem myślowym, natomiast nie ma żadnych przesłanek, żebyśmy w najbliższym czasie byli zagrożeni "niewyrównanym" AI. AI może nas zniszczyć jedynie przez gigantyczne zapotrzebowanie energetyczne, które wpływa na zmiany klimatyczne na Ziemi XD
Dla czego Temu usilnie reklamuje się między innymi pod filmami z twojego kanału?
Co do tlumaczenia slowa alignment to do takiego znaczenia chyba najbardziej pasuje mi charakter jak postaci w RPGu
Prędkość