Existenzielles KI-Risiko? So ein Quatsch!
ฝัง
- เผยแพร่เมื่อ 10 ก.พ. 2025
- Eine potenziell unkontrollierbare KI ist aus meiner Sicht eine existenzielle Bedrohung für die Menschheit, die wir unbedingt vermeiden müssen. Doch das sehen manche ganz anders. In diesem Video gehe ich auf die wichtigsten Einwände der Skeptiker ein.
Schreibt gern in die Kommentare, welche Fragen ihr habt oder zu welchen Einwänden ihr euch eine detailliertere Antwort wünschen würdet.
Wenn ihr der Meinung seid, dass mehr Menschen das existenzielle Risiko der KI ernst nehmen sollten, dann könnt ihr mir helfen, indem ihr diesen Beitrag liked, den Link postet und meinen Kanal abonniert. Vielen Dank!
Quellen:
SPIEGEL-Meinungsbeitrag von Sascha Lobo darüber, dass die Sorge vor einem existenziellen Risiko in Wahrheit nur eine Marketing-Masche ist: www.spiegel.de...
TAZ-Beitrag über Warnungen vor KI-Risiken als "Panikmache" und "Ablenkungsmanöver": taz.de/Geplant...
Beitrag des Redaktionsnetzwerks Deutschland über die Angst vor Technik, die es "schon immer" gab: www.rnd.de/wis...
Kenza Ait Si Abbou darüber, dass KI kein Bewusstsein hat: www.deutschlan...
Beispiel für die von Meta-KI-Chef Yann LeCun häufig vorgebrachte Behauptung, wir würden das Kontroll- bzw. Alignmentproblem schon in den Griff bekommen, wenn es soweit ist: / 1643242824643559426
CNN-Video auf Facebook über Geoffrey Hintons Aussage, dass wir keine Ahnung haben, wie wir übermenschlich intelligente KI kontrollieren sollen: www.facebook.c...
Ein acht Jahre altes, aber immer noch relevantes Video von MIRI-Gründer Eliezer Yudkowsky darüber, warum das Alignment-Problem schwierig ist: intelligence.o...
Eine Erklärung des Orthogonalitäts-Prinzips auf Deutsch: simpleaisafety...
Sam Altmans Behauptung, wir bräuchten AGI für das Überleben der Menschheit: / 1552356314482937863
Google Deepmind-Beitrag über AlphaFold 3: blog.google/te...
SPIEGEL-Meinungsbeitrag von Christian Stöcker über die menschenfeindliche Philosophie des "Effective Accelerationism": www.spiegel.de...
Das Paper "Attention is all you need", das die Technologie der Transformers einführte und einen Entwicklungsschub in der neuronalen KI auslöste, der u.a. zu ChatGPT führte: arxiv.org/abs/...
Szenario von Ex OpenAI-Mitarbeiter Leopold Aschenbrenner über die exponentielle Entwicklung der KI in den nächsten Jahren: situational-aw...