Am Anfang des Videos wird suggeriert, dass das Problem diskriminierender KI dadurch erzeugt wird, dass einseitig selektierte Daten zum Training verwendet werden. Das war beim präsentierten Beispiel (Microsofts "Tay" Chatbot") auch sicher der Fall. Als allgemein formulierte Aussage zielt es aber m.E. am Hauptproblem vorbei: Auch und gerade bei kompletten, nicht vorselektierten Datensätzen kommen KIs regelmäßig zu diskriminierenden Entscheidungen. Einfaches Beispiel: Frauen sind erwiesenermaßen mehr Tage im Jahr krankgeschrieben als Männer. Teils liegt das natürlich an Schwangerschaften und daran, dass bei kranken Kindern eben häufig die Mutter zuhausebleibt, seltener der Vater. Auch daher dürfte ein deutscher Arbeitgeber natürlich nicht mit Argumenten wie "Wir stellen nur Männer an, die sind weniger krank" dahergekommen, er würde sich der Diskriminierung schuldig machen. Eine rein an objektiven, kompletten, nicht einseitig ausgewählten Daten trainierte KI könnte aber dennoch zu genau diesem Ergebnis kommen und dem Unternehmen vorwiegend männliche Bewerber empfehlen. Und das Problem hierbei ist: Aufgrund der Funktionsweise des zugrundeliegenden neuronalen Netzwerks könnte niemand analysieren, ob die KI tatsächlich auf diese Weise diskriminiert oder nicht. Die KI selbst kann natürlich auch nicht "erklären", warum sie zu bestimmten Ergebnissen kommt, sie "versteht" ja nullkommanichts von den Daten - sie schleust sie nur durch einen komplexen mathematischen Algorithmus und wirft das Ergebnis aus. In Kürze: Das Problem diskriminierender KI entsteht nicht (nur) durch einseitiges Training. Es entsteht vor allem dadurch, dass sich viele Diskriminierungen aus vollständigen, nicht selektierten Datensätzen durchaus plausibel ableiten lassen. Wir haben als Gesellschaft lediglich (aus gutem Grund) entschieden, diese Ableitungen nicht durchzuführen, weil wir niemanden aufgrund von Geschlecht, Rasse, Alter, Herkunft, etc. benachteiligen wollen. Einer KI können diese gesellschaftlichen Werte nicht vermittelt werden, da sie ja schon die Bedeutung der Daten nicht versteht. Gleichzeitig wäre es enorm schwierig, einer KI eine solche Diskriminierung tatsächlich nachzuweisen, da die KI ihre Entscheidungsfindung ja nicht erklären muss oder kann. Die Aussagen im Video implizierten (m.E.), dass der Weg zu einer "diskriminierungsfreien" KI darin gesehen wird, die KI eben nicht "einseitig" zu trainieren. Wie oben dargelegt, würde dies das Problem nicht lösen. Der einzige halbwegs sichere Weg, diese Art von Diskriminierung zu vermeiden, wäre, die betreffenden Daten von vornherein aus der KI herauszuhalten. Selbst dann kann und wird es aber dennoch zu Diskriminierungen kommen. Um auf's obige Beispiel zurückzukommen: Selbst wenn der obigen "Personauswahls-KI" das Geschlecht der Kandidaten weder im Training noch bei der Anwendung mitgeteilt wird, könnte (und würde) sie noch immer zu diskriminierenden Ergebnissen kommen, wenn sie Daten erhält, die mit der Geschlechtsvariable korrelieren - z.B. Körpergröße. Die Aussage "Größere Menschen haben im Schnitt weniger Krankheitstage als kleinere Menschen" wäre ja ebenfalls korrekt, da Frauen im Schnitt kleiner sind als Männer, und eine KI, die diese Variable erhält, würde diesen Zusammenhang in ihrem Algorithmen abbilden. Eine ohne Geschlechtsvariable, aber mit Angabe der Körpergröße trainierte KI würde daher zu gleichsam diskriminierenden Entscheidungen gelangen - die Diskriminierungen würden lediglich große Frauen etwas seltener und dafür kleine Männer etwas häufiger betreffen.
Einfache Lösung. Es gibt schon KI, welche ihre Quellen angeben. Dann kann man es nachlesen. Wer wichtig Unternehmensentscheidungen nur von der KI treffen lässt hat eh ganz andere Probleme ;)
Gerade mal getestet. Die KI rät mir nicht mehr Männer als Frauen einzustellen, weil sie öfter krank sind, weil das diskriminierend wäre. Außerdem weist sie verschiedene komplexe Zusammenhänge zwischen dem Geschlecht und den Krankheitstagen hin
@@MürrischeHummel Das ist richtig, löst aber nicht das Problem. Quellenangaben ersetzen ja keine Erklärung der Entscheidungsfindung. Es ist ja gerade eine der Besonderheiten von neuronalen Netzen, dass die tatsächliche Entscheidungsfindung praktisch nicht nachvollzogen werden kann. Welche Gewichtungen welcher Neuronen zu dem Ergebnis geführt haben, das eine KI ausgespuckt hat, können Sie vielleicht mit einer zeitaufwändigen Analyse noch ermitteln. Aber welche zugrundeliegenden Konzepte hinter diesen Gewichtungen stecken, werden Sie nicht herausfinden. Natürlich kann man eine KI mit einem Language Model kombinieren, welches Erklärungen auswirft, die für Laien plausibel wirken - so als würde "die KI sagen, wie sie denkt". ChatGPT kann durchaus auf Laien so wirken, solange die Texte nicht allzu lang oder komplex sein müssen. Tatsächlich referiert die KI dann aber keineswegs über ihren eigenen Entscheidungsprozess - den versteht sie nämlich überhaupt nicht und man könnte auch durchaus darüber streiten, ob eine "Entscheidung" überhaupt stattfindet, wenn lediglich ein Input über einen weitgehend deterministischen (wenn auch hochkomplexen) Algorithmus in einen Output umgewandelt wird. Die KI ist dann nur gut darauf trainiert worden, einen Text zu produzieren, der wie ein plausibler Entscheidungsprozess _klingt_ - was eine phänomenale Leistung ist, aber eben fundamental verschieden vom echten Referieren eigener Gedanken.
@@MürrischeHummel ChatGPT gibt ihnen die weichgespülteste Formulierung jetziger Werte. Verstehen oder Erkennen gibt es da nicht, sie sollten @psyringe5627 s Kommentar noch einmal sorgsam lesen.
Ich bin bei Facebook und Instagram auf die Aktivität von AI hingewiesen worden sowie auf meine Möglichkeit, begründet zu widersprechen. Das habe ich getan und begründet, dass ich urheberrechtsrelevante Inhalte poste (eigene Sachen). Dem wurde stattgegeben und das wurde mir auch bestätigt.
@@Katojana Leider sind Gesetze nicht immer mit dem individuellen Rechtsempfinden vereinbar. Hier wurden in der Vergangenheit so einigen Direktiven Vorrang vor Menschenrechten gegeben.
Ich sehe es schon kommen: "Für den Zulassungsantrag senden Sie bitte den Quellcode auf einseitig bedrucktem DIN A4 Papier ein. Bitte lose und weder getackert noch mit Büroklammern, damit die Digitalisierung erleichtert wird. Andere Formen der Einreichung werden ignoriert." 😂
Mich würde mal ein Video interessieren, welches sich mit TH-cam, speziell mit TH-cam Deutschland befasst. Konkret in Punkto Zensur, was Kommentare und vor allem auch Videos betrifft. Wie ist es rechtlich vereinbar, dass ein Algorythmus/eine KI z.B. Videos demonetarisiert oder direkt komplett löscht, weil irgendetwas AGB-widriges erkannt wird, was aber nicht da ist? Man hört immer öfter von Creators, dass ihre Videos grundlos demonetarisiert oder gar gelöscht werden und selbst der Support nicht weiß, warum eigentlich. Heißt, die haben da nicht mal selbst Einblick. Wie kann sowas sein? Immerhin gehen den Creators dadurch Einnahmen flöten, weil ein Algorythmus/eine KI Mist baut. Und Kommentare werden auch immer öfter gelöscht, obwohl man nichts AGB-widriges schreibt, was ganz klar gegen die Meinungsfreiheit verstößt.
Hier werden Begrifflichkeiten und Konzepte miteinander vermischt, die nichts miteinander zu tun habe. Es gilt das Hausrecht. Begriffe wie "Meinungsfreiheit" oder "Zensur" stehen in Verbindung mit den Grundrechten in Deutschland. Diese versteht man als "Abwehrrechte Privater gegenüber dem Staat". Du kannst also "nur" deine Meinungsfreiheit ggü. staatlichen Organisationen geltend machen. Zensur in diesem Sinne wird demnach "durch den Staat oder dem Staat zurechenbare Stellen" ausgeübt. "Eine Vorauswahl privater Stellen, ob Beiträge veröffentlicht werden oder nicht, ist daher keine Zensur im Sinne des Grundgesetzes und verfassungsrechtlich unbedenklich."
@@so-u-l-ist7704 Demonetarisierung ist aber keine Vorzensur sondern ein nachträglicher Eingriff, bei dem TH-cam mit dem Kontent weiter verdient, aber die Einnahmen nicht mehr weitergibt. Mit Zensur hat das kaum etwas zu tun. Und mit Hausrecht ... höchstens vielleicht (Vergleich hinkt) so wie wenn ein Restaurant die Reservierung bestätigt, dich an den Tisch setzt und dann nach dem Aperitiv entscheidet, dass du zwar sitzenbleiben und voll bezahlen darfst, aber nichts mehr zu essen bekommst. Und das Ganze, weil der Sohn vom Eigentümer zufällig beim Flaschendrehen auf deinen Tisch gezeigt hat.
Die Frage ist noch offen inwiefern anonymisierte bzw synthetisch generierte Daten verwendet werden können. Wird interessant wie es dann in der Umsetzung aussieht.
Wie ist denn das Pricing von amber search? Ist es basierend auf der Mitarbeiter Anzahl oder anzahl an Computer oder so des Unternehmens? Wär ja sonst kacke wenn ein 15 Personen Betrieb ähnlich viel zahlen muss wie in 10.000 Personen unternehmen.
"Nur für schwere Straftaten" ist fast wie "Nur gegen Kinderpornographie": Das ist der Rammbock, mit dem das Tor eingerissen wird, und wenn die Technik erstmal etabliert ist, kommen die Versuche für Gesetzesänderungen, die den Einsatz ausweiten sollen. Hat man bei den Mautbrücken sehr schön beobachten können, da sind ja mehrere dieser Versuche gescheitert.
Ja, wer auf diese Begründung noch reinfällt, ist entweder jünger als 10, lebensuntüchtig naiv oder dumm wie Rattenkot. Eigentlich könnte man denjenigen unter KI-Aufsicht stellen.
Es muss ja nur möglich und in einigen Ausnahme fällen erlaubt sein, dann schert sich kein Schwein mehr darum, wenn sich daran in anderen Fällen nicht dran gehalten wird. 😊
@@SYCHR0N ja wie gesagt, es braucht ja gar nicht legal sein, jemanden wegen Falschparkens zu überwachen: Wenn die Grenze nur noch ein Klick auf dem PC ist und man hat den "Täter" identifiziert, dann schert das am Ende niemanden mehr. Denn wie willst du als Falschparker nachweisen, dass die dich auf Grund von "KI" Auswertung geschnappt haben? Da hast du ja keinen Hinweis drauf.
Ich persönlich finde die KI Thumbnails nicht gut. Man weiß, dass es nicht echt ist. Und was nicht echt ist, kann ich weniger ernst nehmen. Andererseits sind "echte" Thumbnails auch oft stark verändert. Vielleicht sieht das die jüngere Generation auch anders. Aber auf mich wirken die KI Thumbnail irgendwie weniger seriös.
Gleiches Gefühl hier. Ich will nicht ausschließen, dass eine gut trainierte KI mit hinreichender Kapazität auch gute Vorschaubilder erstellen kann. Aber die Bilder, die ich zuletzt gesehen habe, sahen doch sehr nach Betriebsunfällen aus (fragwürdige Komposition, technische Mängel, und generell einfach ein sehr unprofessioneller Gesamteindruck). Das ist mir bereits aufgefallen, bevor ich jetzt gehört habe, dass die Bilder jetzt von einer KI erzeugt werden, kann also auch nicht an selektiver KI-kritischer Wahrnehmung liegen. Bei den bisherigen handgefertigten Vorschaubildern war, auch wenn sie teils stark manipuliert waren, sowohl die Komposition als auch die technische Ausführung besser.
@@psyringe5627 Ich hatte sofort gesehen, als WBS bei den Thumbnails auf KI umgestiegen ist. Es ist einfach zu deutlich sichtbar und wirkt zu künstlich.
Ja am Ende geht es ja oft darum Zeit und Arbeit zu sparen. Wenn man dann das erste, aufgrund eines 3 wörtigen Promts erstellte, Ergebnis unbearbeitet nimmt, wird das halt unseriös, wenn man nur das Thumbnail anstarren würde. Ich gehe davon aus, dass viel mehr bereits „KI“-erstellt ist, als wir glauben. Nur sind das dann halt Profis, die das bloß als startpunkt nutzen und es gut zu maskieren wissen. Kein wbs Praktikant oder gar der Herr Solmecke am Ende eines langen Tages. Und ehrlicherweise, ihr Gefühl, etwas unseriös zu finden ist TH-cams Algorithmen auch wieder egal wenn sie dann doch drauf klicken.
Gut man muss allerdings auch bei den unzumutbare Risiken bezogen auf die Kameraüberwachung bei der Suche von Straftätern auch die entsprechenden Institute, Organisationen und Behörden in ihre Schranken weisen. Man kann ja mit Kamerasystem nach Straftätern suchen solange die gescannten Gesichter oder die Informationen wer wo ist und was diese Person gerade macht nicht gespeichert und bestehende Informationen nicht in Zusammenhang bringen. Dann würde ich Kameraüberwachung mit Gesichtserkennung weniger hoch einstufen. Wenn die Daten allerdings doch gespeichert werden dann wird es kritisch
Interessant, dass eure Vorschaubilder nun mit KI produziert werden. Betrifft das bereits die Bilder aus der jüngeren Vergangenheit? Die wirkten auf mich nämlich teilweise recht komisch und sehr unprofessionell zusammengesetzt. Ich hatte mich schon gefragt, ob der eigentliche Designer vielleicht im Sommerurlaub ist. Wenn die von einer K"I" zusammengeschustert wurden, würde das natürlich einiges erklären.
Aber dann gilt das ja nur für die EU. Der Rest der Welt kann dann immer noch mit den Daten tun und lassen, was sie wollen. 🤔 Ich meine unsere Daten gehen ja hauptsächlich Übersee, aber wenigstens sind dann EU Firmen etwas vertrauenswürdiger.
Eine KI die Gesetze inkl. GG menschenrechtskonform anwendet und auslegt wäre ziemlich gut. Menschenrechtsabkommen sind living instruments. Sie werden entsprechend der gesellschaftlichen Entwicklung verstanden. D.h. die Begleitdokumente können sehr umfangreich sein. Und je nach Fall müssen unterschiedliche Informationen verwendet werden. Hinzu kommt ein oft anderes Verständnis z.B. was Nichtdiskriminierung und Mehrkosten angeht.
Bei der einen Bank bei der ich bin hab ich das Vermutung das dir ggf nur einmal gesagt das man mit einem Chatbot chatten reicht das wirklich schon aus oder muss sich der Chatbot immer wieder vorstellen als solcher Vorstellen?
Hallo, Sie sagten in Ihrem Beitrag, das wenn persönliche DAten z.B. von mir in einer AI vorhanden wären, und ich nicht damit einverstanden wäre, das man diese kaum wieder aus einer AI entfernen könne. Ich bin da etwas anderer Meinung, es gibt da einen einfachen aber sehr heftigen Weg. Der Anbieter hat dann halt nicht richtig aufgepast, das ist sein unternehmerisches Risiko, dann muss er halt seine komplette AI löschen und von Anfang an neu beginnen, dann sind alle Daten weg, so muss das laufen. Wir Menschen sind immer wichtiger als KI oder eine AI und uns muss der höchste Schutz gelten.
Hmm, wie würde ein "richtig aufpassen" des betreffenden Unternehmers denn Ihres Erachtens technisch realisiert werden? Wie Solmecke bereits ausgeführt hat, ist es nicht möglich, spezifische Daten aus einer KI wieder zu löschen. Das ist wie wenn ich Ihnen mein Geburtsdatum verrate - sobald diese Info in Ihrem Hirn gespeichert ist, kann ich Sie nicht dazu zwingen, sie wieder zu vergessen. Ich kann die Nachricht löschen, mit der ich die Info herausgegeben habe, aber das ändert ja nichts mehr an Ihrem Wissen. Genauso können Ihre persönlichen Daten nicht mehr aus einer KI entfernt werden - man kann ja nicht einmal herausfinden, wie die Information in den Algorithmen der KI abgespeichert wurde. Das ist nicht wie in einer Datenbank, wo man einfach mal eine Zeile löschen kann, sondern mehr wie in einem Gehirn, wo keiner weiß, wie die Informationen genau abgespeichert wurden. Gleichzeitig bietet die GDPR aber jedem Betroffenen die Möglichkeit, der Verwendung seiner Daten jederzeit zu widersprechen. Das bedeutet letztendlich: Was Sie fordern, ist, dass keine KI jemals personenbezogene Daten verarbeiten soll. Denn jede KI, die das macht, müsste komplett weggeworfen und von Grund auf neu trainiert werden, wenn auch nur ein Einzelner seine persönlichen Daten zurückzieht - jedes Mal. Das wäre dann so teuer (und so einfach zum Schaden des Unternehmens missbrauchbar), dass die Entwicklung einer solchen KI schlicht nicht praktikabel wäre (da wirtschaftlich zu riskant) - egal wie gut der Entwickler "aufpasst". Wenn das Ihre Position ist - okay, respektiere ich. Aber seien Sie sich bitte bewusst, dass unter der von Ihnen vertretenen Regel "wenn persönliche Daten nicht entfernt werden können, muss die KI eben weggeworfen werden" keine KI mehr persönliche Daten jedweder Art verwenden könnte, auch nicht in Situationen, wo es hilfreich wäre und/oder Leben retten könnte. Und da kommen Sie dann m.E. in einen Konflikt mit Ihrem Ziel, Menschen immer den höchsten Schutz zukommen zu lassen.
Völlig unmöglich auszuschließen dass etwas angeblich legales in den Trainingssatz gerät. Wie denn auch, bei Abermilliarden von Daten. Von daher absurder Einwand.
In gedruckten Büchern kann man nicht so ohne weiteres maschinenlesbare Urheberrechts-Hinweise unterbringen. Außerdem sollte der Vorbehalt ja für Werke, die vor dem Inkrafttreten des Gesetzestextes veröffentlicht wurden, automatisch gelten, da man ja nicht in er Lage war, das vorauszusehen.
Dann würden wir in der Konsequenz allerdings noch in den Höhlen sitzen. Ich würde mich da an der primären Richtung orientieren: wer veröffentlicht, möchte Öffentlichkeit. Sonst könnte man ja genauso alte Werke für Schwarze, Weiße, Gelbe etc. verbieten, weil der Autor nicht wusste, dass es China, USA, Europa etc. gegeben hat, als er sein Werk erstellte. Wer das nicht will, sollte es einfach lassen bzw. aus dem allgemeinen Raum heraushalten.
@@TheCobraCom Das würde bedeuten: Gar kein Copyright. Die Folge wäre gar keine Künstler, die müssten dann ja einem bezahlten Full-Time Job nachgehen,weil ja jeder ihre Werke kostenlos beliebig verwenden dürfte.
Hey wbs Team 👋 könntet ihr zu dem Thema ein Video machen zu bildrechten? Was ist mit kommerzieller Nutzung von generierten Bildern von Anbietern wie beispielsweise freepik? Freepik selbst hat sich da in den terms of use fein eingenommen und alles schön schwammig formuliert. Wäre sehr interessant. Danke im Vorfeld
Freepic, Pixabay, CreativFabrica (ich habe einen kostenpflichtigen Account) und andere "legalen" Anbieter sind ja eh sehr komisch. Ich habe die Rechte, nur weil der, der sie zur Verfügung stellt behauptet es sei eine eigene Kreation. Was aber nun, wenn der Hochladende selber kopiert hat und eigentlich gar kein Recht am Produkt hat? Dann habe ich als Unwissender auch keine Rechte - auch wenn ich die Sachen von dieser Plattform habe. Die TM Prüfung ist also dennoch notwendig.
Wie sieht das mit Rechten/Nutzungsrechten aus bei AI-veränderten Fotos? Also als Prompt eigene Fotos (zB Selfies), die nach bestimmten Themen verändert wurden, zB der Nutzer als Rembrandt-Gemälde. Da ist ja die Person idR immer noch eindeutig erkennbar und zuordbar. Ist das Ergebnis dann über die "komplexe Prompt" Regel geschützt, oder wird da auch von Gemeinfreiheit ausgegangen?
...die sog. Singularität ist bei der KI eigentlich etwas Anderes...es beschreibt eher denk Punkt, an dem eine "starke" bzw allgemeine KI erschaffen wird. damit wird eine KI bezeichnet, die nicht mehr (wie aktuelle KIs) nur spezielle Aufgaben lösen kann...sondern die quasi alle Fähigkeiten aller KIs in sich vereint...also "die eine KI für ALLES".
14:30 Is ja nicht unser Problem, wenn die Entwickler das so konzipiert haben. Dann sollte man halt einfach mal verantwortlich handeln und KIs so konzipieren, dass sie in der Lage sind Gesetze entsprechend einzuhalten. Ich meine WTF, wovon reden wir hier bitte? Ich kann auch nicht einfach einen autonomen Panzer programmieren, der durch Innenstädte fährt und wild um sich schießt und dann sagen "Tja, geht halt nicht mehr zu stoppen, sorry".
Wenn die Gesetze bereits vorher bestanden und Ihnen bei der Erstellung des Produkts hätten bewusst sein müssen, klar. Bei Ihrem Panzerbeispiel ist das ja auch der Fall. Im Fall von KI herrschte teilweise halt noch der Wilde Westen - die Grenzen dessen, was man durfte und was nicht, waren eben oft nicht klar. Genau da soll der AI Act ja nun Klarheit schaffen. Die Behandlung bereits bestehender, unter unklarer Gesetzeslage initiierter Projekte ist da mitunter etwas schwierig - grundsätzlich stimme ich aber mit Ihnen überein, dass es die Verantwortung der Entwickler sein muss, ihr Projekt gesetzeskonform zu konzipieren. Im Fall der von Ihnen angesprochenen Regelung wird das Problem darin gesehen, dass die gesetzeskonforme Konzeption jedweder KI, die mit personenbezogenen Daten umgeht, schlichtweg nicht möglich wäre. Nach GDPR wäre ja jeder Beteiligte jederzeit berechtigt, seine Daten aus dem System zurückzuziehen. Das ist aber bei einer KI technisch unmöglich. Kurzes Beispiel zur Demonstration: Sie haben in der Schule sicher irgendwann mal über einem Mathe-Buch gesessen und (sagen wir mal) den Dreisatz gelernt. Wenn jetzt eine Regulierungsbehörde im Dreisatz ein Werk des Teufels sieht und das Mathe-Buch verbannt, ändert das überhaupt nichts daran, dass Sie den Dreisatz immer noch anwenden können und automatisch auch werden. Und selbst wenn es möglich wäre, selektiv Neuronen in Ihrem Hirn auszuradieren, könnte man Ihnen das Wissen um den Dreisatz nicht mehr nehmen - weil niemand weiß, wie genau dieses Wissen in Ihrem Hirn abgespeichert ist. KI funktioniert auf eine ähnliche Weise. Die Daten, mit denen eine KI trainiert wird, beeinflussen die digitalen "Neuronen" des neuronalen Netzes. Wenn das Training beendet ist, können Sie die Trainingsdaten auch wegwerfen, das ändert nichts mehr an der Funktionsweise, die die KI verinnerlicht hat. Wenn Sie Ihre KI darauf trainiert haben, auf die Eingabe "Hans" mit "Idiot" und auf "Helga" mit "Genie" zu antworten, wird diese Information zwar irgendwo in den komplexen Algorithmen der KI abgebildet - aber wenn Hans oder Helga nun der Verwendung ihres Names widersprechen, dann können Sie nicht eine einzelne Formel oder ein einziges Neuron isolieren, das diese Information gespeichert hat, und diese Information spezifisch löschen. Sie müssten im Prinzip die ganze KI wegwerfen und das Training ohne die Namen von Hans und Helga wiederholen. Die EU möchte hier offenbar einen Mittelweg finden, unter dem KI-Entwicklung möglich bleibt, die Persönlichkeitsrechte Betroffener aber trotzdem gewahrt werden. Deshalb kommt man wohl zu diesem etwas holprig anmutenden Vorschlag, dass die KI eben nicht weggeworfen werden muss, dass die betreffenden Daten aber nicht mehr nach außen dringen dürfen. Im obigen (kruden) Beispiel könnte man also z.B. einen Filter implementieren, der eine Ausgabe unterdrückt, wenn die KI mit dem Input "Hans" oder "Helga" konfrontiert wird. Ob das eine gute Lösung ist, kann und muss sicher diskutiert werden - aber es ist ein durchaus kniffliges Problem, das m.E. keine einfache Lösung hat.
@@psyringe5627 Danke für diese sachliche Nachricht, sehr erfrischend, dass man so etwas auch einmal erleben darf. Da ich selbst KIs entwickle muss ich Ihnen aber leider in ein paar Punkten widersprechen. 1. Bestehende KIs können korrigiert werden, um wissen zu verlernen. Bspw. über die negative-reward-method und einige Weitere. 2. Alte Techniken mussten sich schon immer an neue Gesetze anpassen und KIs dürfen und sollten hier mehr als alles andere ausdrücklich keine Ausnahme machen, da deren Gefahrenpotenzial und die damit verbundene Verantwortung teils extrem hoch ist. 3. Mag sein, dass es den AI Act noch nicht gab, die europäischen Werte und gesunden Menschenverstand jedoch sehr wohl. Von daher ist der AI Act wohl kaum eine "Neuigkeit" für Google und ähnlich weit verbreitete Anbieter von KI. Nur der Umstand, dass es nun gesetzlich verpflichtend ist, sich an bestimmte Dinge zu halten ist neu.
Ich persönlich finde, KIs dürfen niemals für einen Menschen nachteilige Entscheidungen allein treffen. Da das aber darauf hinauslaufen wird, dass Menschen dann halt einfach sagen "KI wird schon recht haben, passt so", muss eine negative Entscheidung erst von einem Menschen geprüft und begründet werden, bevor dieser die Begründung der KI sehen kann, und nur wenn die Begründungen gleich sind, ist die negative Entscheidung auch erlaubt.
ki ist vertraurnswürdiger sls mainstreammedien und politiker uns all die gekauften 'experten'. und die menschen legen bereits jetzt schon das von dir befürchtete verhalten an den tag, halt einfach mit obigen instanzen ...
Auch interessant, zum Thema KI-generierte Bilder, ist die Frage, wie es mit dem Copyright aussieht, wenn man die KI lediglich nutzt um eigene Werke zu vollenden/aufzuwerten. Ich bin auf stable diffusion und co erst richtig aufmerksam geworden, als ich von der image to image Funktion gehört habe. Wenn man ganz OK zeichnen kann, aber für mehr der Skill/das Wissen und Material fehlt ist es echt ne feine Sache sich die Kreationen durch SD und co fertigstellen/aufhübschen zu lassen. Da die Grundlage dann ja eine eigene Kreation ist, an der man prinzipiell die Rechte besitzt, könnte ich mir schon vorstellen, dass das nochmal zusätzlich schwierig wird, wenn einfach pauschal geregelt wird, dass man an KI-Kunst keine Rechte haben kann.
Wenn du ne KI zur Bildgenerierung trainierst, dann trainierst du ein modell das ein Bild generiert (Generator), und ein modell das erraten muss ob das Bild ein echtes oder ein generiertes Bild ist (Diskriminator), irgendwann wird der Generator so gut dass der Diskriminator keinen unterschied zwischen den echten und generierten Bildern mehr erkennen kann. Der Diskriminator ist also das, was du dir hier vorstellst, du musst die Unternehmen nicht dazu verpflichten, weil sie es sowieso freiwillig machen, nur funktioniert dieser ansatz nicht. Desto besser der Diskriminator wird, desto besser wird auch der Generator, die beiden Trainieren sich gegenseitig hoch. Es gibt auch noch stable diffusion modelle die keine Diskriminatoren brauchen, aber wenn du bei denen so ein erkennungsmodell trainieren willst rennt man früher oder später in genau das gleiche problem. Glaub mir, KI unternehmen würden selber gerne erkennen ob die Daten KI-generiert sind oder nicht, da modelle die mit ihrern eigenen Outputs trainiert werden schlechter werden (Model Collapse), nur können sies nicht.
... an Deine Anwalt-KI, meinst Du wohl ... solche einfach gelagerten Massenverfahren wären prädestiniert. Aber mal sehen, was die Richter-KI dazu sagt.
Um mit AI verantwortungsvoll umgehen zu können, sollte der Mensch auch seine Sprache beherrschen, um Korrekturen vornehmen zu können. Von "Kunst" ganz zu schweigen, seelenlos, leblos und durchschaubar. Wenn ich manche Texte auf Webseiten lese, dann weiß ich nicht, ist das AI oder ein Schulabgänger gewesen?! Bin jetzt auch nicht perfekt aber wer Gendern für gutes Deutsch hält und Mitarbeitende schreibt anstatt den grammatikalisch korrekten Plural, kann ich nur sehr schwer weiter lesen. Erstmal übergeben, dann weiter lesen. Meistens ist dann fast ein Eimer voll, wenn der Text zu Ende ist. Oder... Fuß mit ss... Alles in Maßen genießen, anstatt in Massen.
Ich nehme mal an das sich an den AI Act nur die Firmen halten müssen die auch in der EU tätig sind bzw. hier Filialen haben. Eine Firma die zum Beispiel in Süd Korea sitzt und 'ne englischsprachige Webseite hat muss sich daran wohl nicht halten.
5:17 lacht sich der Herr Voss da ins Fäustchen? Ich bekomme da schon ne Wut wenn man ausgerechnet den dort sieht und dass auch noch so hämisch lachend. 😑
Es gab schon Jahre vor dem KI-Hype Unternehmen die Bewerbern einen Termin geben an dem sie daheim von einem Computer angerufen werden, und dieser stellt dann Fragen, um anhand des Inhalt der Antworten, anhand der Wortwahl (Intelligenz...), und weiterer Faktoren wie Sprachmelodie (Selbstbewusst oder nicht) oder der sprachlichen Färbung zu entscheiden ob die Person einen Termin zu einem Vorstellungsgespräch erhält. Ich halte nichts von Soziolekten, und wenn eine KI erkennt dass ein Mensch eine "Färbung" in der Aussprache hat, ist das die Schuld der Eltern. Klar, ein Migrant der im Ausland geboren ist, der hat seinen Akzent, aber wenn die Dritte oder Vierte... Generation noch eine "Färbung" hat, ist es ein Soziolekt, und deutet auf soziointellektuelle Unterschicht hin. Falls jemand meint dass wäre nicht der Fall, haben wir unterschiedliche Definitionen von Unterschicht. Cem Özdemir hat keinen Soziolekt, obwohl seine Eltern wohl direkte Einwanderer waren. Die aber Wert darauf gelegt haben, dass man es nicht hört. Also nicht wie scheinbar immer noch verbreitet bis zum evtl. Kindergarten nur Türkisch oder Arabisch mit dem Kind gesprochen wird. Z.B. ist für einen Ausbilder von Knastwärtern JEDER seiner Schüler soziointellektuelle Unterschicht. Das hat er öffentlich gesagt. Ist in einem Blog-Artikel von RA Udo Vetter zu lesen. Wenn man sich hier Videos im KFZ-Reparatur-Bereich ansieht, wirken diese Menschen nicht selten auch "schlichter". Gerne auch als "Authentisch" schöngeredet. In den USA gilt das auch für "African-American Vernacular English". Was nicht mal einen migrantischen Ursprung hat, sondern eine sich entwickelte Subkultur ist. Wenn es bei solchen Anrufen eines Computer keinen Hinweis auf die Ethnie gibt, ist es vorsichtig ausgedrückt nicht verwerflich solche Dinge nachteilig zu bewerten. Das gilt auch für Namen in solchen Subkulturen. Wäre ich Afroamerikaner, ich würde den eigenen Kindern sicher keine Namen wie "Shaneequa" etc. geben. So wie in Deutschland "Dschakeline", "Mandy", "Kevin" etc.. Was das angeht, sind (fiktive) Vorbilder Carlton Banks, Steve oder Cleveland Brown... Auch Steve Urkel. Wenn ich könnte, würde ich einen Schurken aufhalten, der/die einen Virus entwickelt der die Gene der Menschen hin zu höherer Intelligenz, und wenn möglich auch weniger weiblicher und männlicher Toxizität und weg von Menschen wie in DSDS verändern kann...? Ich weiß es nicht ;-) . Ein Anfang wären Influenzer die statt der eigenen Gene Eizelle und Spermium von Spendern mit IQ180 beschaffen, und damit ein Kind mit IQ um 140 bekommen. Und das populär machen... P.S.: Sh** in, mushrooms out...
Das Problem daran ist ja, dass es nicht transparent und damit unmittelbar willkürlich ist. Wenn bei dem Anruf auf Anzeichen von Soziopathie geprüft würde, hättest du z.B. auch einen Nachteil, da dein Gequatsche starke Indizien dafür hergibt. 😊
@@Schaf_Richter Es ist nicht automatisch willkürlich, nur weil es nicht transparent ist. An welcher Stelle sollte man denn hier "Soziopathie" sehen? Etwa dass Influenzer statt mit den eigenen Genen öffentlich nach Spender-Keimzellen suchen sollten, um mit diesen Kinder zu bekommen? Erstens müssten die Influenzer nicht aktiv dazu "aufrufen" es ihnen gleich zu tun, und Zweitens hätte das absolut nichts mit "Soziopathie" oder Psychopathie zu tun. Ein bekannter Psychopath ist Professor Lesch. Das bestätigen Leute die ihn persönlich kannten, und der Bluescreen-Vorfall (in den Medien erwähnt) bestätigt das auch. Diese Influenzer könnten natürlich dazu aufrufen, aber auch das hätte nichts mit "Soziopathie" zu tun. Das zu tun, oder dazu aufzurufen wäre auch in keinster Weise moralisch verwerflich oder auch nur problematisch. Im Gegenteil, Menschen mit hohem IQ sind nachweislich glücklicher und eher linksliberal als Rechtskonservativ. Außerdem würden sie natürlich die Menschheit voran bringen. Also wo ist das Problem? Und wie kommt man da völlig ohne Bezug auf "Soziopathie"? Zu Bewerbungen. Wenn das so wäre, läge ich Wert darauf dass das Unternehmen von vorne herein meine Ansichten kennt. Denn am Ende würde ICH darüber entscheiden ob ich dort arbeiten würde. So wie es richtigerweise in der Gen. Z immer populärer wird. DIE stellen im Gespräch kritische Fragen, und lehnen auch Jobs ab, für die sie dann am Ende Zusagen erhalten. Weil SIE es sind, die entscheiden ob sie dort arbeiten. Ich bin Gen. X, aber sehe das genau so. In meinem Leben stand auch nie jemand "über mir", und ich spreche mit jedem Menschen gleich. Und Nein, ich habe noch nie ALG2 oder auch ALG1 bezogen. Wozu Influenzer auch aufrufen sollten, und was Unternehmen gar nicht gefallen dürfte, aber in keinster Weise "soziopathisch" ist, ist Frugalismus. Man spart bis man 30 ist alles was man nicht zum Überleben braucht. Also keinerlei Reisen, Ausgehen, extern Essen etc. etc. etc.. Frugalisten rechnen für ZWEI Personen pro Woche für Lebensmittel €25. Aktuell können es auch Verteuerungsbedingt €30 sein. Wohnen für evtl. 25m² in Brandenburg für €180. Sogar in Köln Innenstadt im hippen Belgischen Viertel nahe der Uni sah ich mal für den Preis warm eine Wohnung. Alternativ Vanlife oder Elternhaus (sie können ja was an die Eltern zahlen, und helfen). Dann können auch Ladenschwengel und Hinternputzer mit 30 in den Ruhestand gehen. Bis dahin wird alles was nicht zum Überleben nötig ist gewinnbringend angelegt. Man muss dann mit 30 nicht kündigen, aber man KANN es. Man kann dem Chef dann auch sagen, dass man nun genug passives dauerhaftes Einkommen angespart hat, um nicht mehr arbeiten zu müssen, wenn man mit dem um z.B. mehr Geld verhandelt. Oder man kündigt einfach, weil man die Arbeit eh nur fürs Geld gemacht hat... Influenzer könnten sich mit Infostand vor Schulen stellen und dafür werben. Schön provokant, aber auch wenn die die Polizei rufen, können die nichts machen. Auch daran ist ja NICHTS verwerflich. Auch wenn die Unternehmen und der Staat es sicher nicht gut fänden, wenn das zur Mode würde. Noch weniger Arbeitnehmer, noch mehr Macht für die verbleibenden Arbeitssuchenden. All das ist aber relativ, da in 20-30 Jahren zur Technologischen Singularität eh nur noch evtl. 1% oder weniger in Politik, Kunst und Wissenschaft arbeiten werden... Gen. Beta wird vermutlich zum großen Teil nie arbeiten. Und das ist gut so. Auch in der Wissenschaft arbeiten dann nur die besten der Besten mit IQ von evtl. 170, 180... Sogar die Sparkasse wirbt auf einer Webseite für den Frugalismus. Auch wenn die etwas konservativer von 40 statt 30 ausgehen. Ray Kurzweil ist Chef-Entwickler bei Google, und sieht das genau so...
Was mich persönlich am meisten interessiert ist die Einschränkung von KI-generierter Kunst, denn das finde ich wirklich bodenlos; das zerstört für mich das Fortbestehen von Kultur, und ich würde mir wünschen, dass es in Zukunft Wege gibt die Verwendung von AI zur Erstellung von Kunst zu unterbinden. Zumal ich es auf verbraucherfreundlich nicht okay finde, dass man einen Opt-Out und keinen Opt-In verwenden muss. Generell AI zu kommerzialisieren halte ich für keine Person für eine gute Idee
Ich benutze für mein Studium die KI Von Google (um Begrifflichkeiten, Zusammenhänge oder Unterschiede mir erklären zu lassen) hab mir aber in meine Notizen nur für den Fall der Fälle schon mal markiert dass dieser Absatz von dieser KI stammt um wenn ich darauf zurückgreife entweder die Texte umformulieren oder noch mal in der Fachliteratur nachschlagen kann
Hallo Herr Solmecke, mit dieser Videoinformation über diesem AI Mißbrauch könnte man mal einen SI-FI-Horrorfilm inszenieren. Wie Michael Chritchton,s WESTWORLD 😮
@@rotebeete7453Nur mit dem cineastischen Unterschied, daß Michael Chrichton WESTWORLD schon 1972 herausbrachte und James Camaron TERMINATOR ein Jahrzehnt später 1984 inszenierte.
Schön, wenn der Regenschirmstiel mitten durch den Hals geht. Und da soll K.I. täuschend echt sein? Auch hier wieder: SELBER DENKEN, KRITISCH SEIN und SELBER RECHERCHIEREN. Der Fehler liegt, wie immer, im Detail. Denn die Wirklichkeit lässt sich nicht perfekt simulieren.
Ich find die KI generierten Thumbnails die jetzt seit einiger Zeit auf den Videos sind, nicht sehr gut umgesetzt. Sieht irgendwie extrem unnatürlich und unprofessionell aus. Wenn man AI trainiert kann man aber viel bessere Ergebnisse erzielen. Nun was sagt eigentlich die EU für Models die man selber trainiert? Gibt ja zum Glück auch noch Open Source tools.
Ich habe schon Sticker machen lassen. Für Kundendaten würde es Auftragsdatenverarbeitungsverträge mit den KI Anbietern geben. Alles ist möglich, man muss es nur in den richtigen Rahmen quetschen.
@@Alepfi5599 Ich bin Deiner Meinung und glaube auch dass es im Grunde ganz gut ist. Bisschen schade ist, dass es noch so lang in der Umsetzung braucht. Denn es gibt ja auch hier schon Kommentare die behaupten wir würden bürokratisch am Fortschritt gebremst. Bei einer schnelleren Umsetzung könnte man auch schneller deregulieren falls Teile wirklich unpraktikabel sind...
@@br0sys Ich halte den AI Act ebenfalls für einen guten Versuch, mögliche höchst knifflige Probleme einer neuen Technologie zu addressieren, bevor sie eskalieren. Würde mir ebenfalls eine schnellere Vorgehensweise wünschen, da (angesichts der sich rasant weiterentwickelnden Sachlage) Nachjustierungen sicher nötig sein werden. Frage mich allerdings auch, wie effektiv die Regelungen sein werden, solange sie nur Europa betreffen. (Das ist, glaube ich, die Hauptsorge der "Bremst den Fortschritt nicht"-Fraktion - dass ein als "regulierungswütig" empfundenes Europa im internationalen Forschungswettstreit abgehängt wird.) Ist aber ein enorm schwieriges Thema, zu dem ich ehrlich gesagt keine realistische globale Lösung sehe. Insofern ist der Ansatz, wenigstens in unserem eigenen Umfeld vernünftige Grenzsetzungen zu finden, sicher nicht der Schlechteste. :)
Eine KI, die die Personen nach Qualitäten einstellt, hm wie soll das mit der Frauenquote funktionieren, dh die KI müsste mit Daten gefüllt werden die das eine Geschlecht bevorzugt, was aber theoretisch illegal wäre, aber dann doch wieder nicht 🤯
Es hat sich gezeigt, wenn Menschen wirklich nach Qualitäten eingestellt werden, fällt die Frauenquote eh weg, da das Verhältnis ganz natürlich annähernd die Hälfte erreicht.
@@Naanhanyrazzu wie soll das funktionieren, wenn die Auswahl in den verschiedenen Bereichen nicht ausgeglichen ist, dh wenn in einem Bereich 80% oder mehr dies ein bestimmtes Geschlecht studiert, dann ist die Auswahl der Bewerber geringer und das wird ja explizit bei Quoten ignoriert. Daher kann dies doch automatisch nicht ausgeglichen werden?
Bei uns an der Uni frag ich die Studenten immer, warum wir nicht unseren eigenen KI Chat bauen. Bei uns am Institut sind Fachleute für KI und auch ich Entwickle KI's lol. Wir arbeiten mit Patientendaten, was das ganze Microsoft eing eh kompliziert macht. Die meisten nutzen Linux bei uns. Beschde!
Gerade im Bereich Chat GPT gibt es doch unzählige Anbieter von verschiedenen GPTs zu verschiedenen Anwendungsbereichen. Aber alle basieren auf ChatGPT. Problematisch finde ich auch das Analysieren von Dateien (Grafik und Text)... dann sind ja die Dateien öffentlich. Wie sieht es da eigentlich mit der DSGVO aus?
@@nico1970real im medizinischen Bereich sollte man das aber nicht nutzen, da man aus Unwissenheit Gefahr läuft Dummheiten zu machen. Das in die Ärzte oder medizinisches Personal zu bekommen ist nicht leicht. Ein Student meinte auf die Frage, warum man aus dem Krankenhaus Informationssystem keine Daten in Chat GPT laden darf: "Warum kann ich da Chat GPT nicht nutzen?". Weil du dann in den Knast kommst, war meine Antwort.
@@nico1970real ja, seh2 ich auch so. Ich würde es im Krankenhaus aber verbieten bzw. ...nee, für alle ausser man arbeitet nicht mit Patientendaten (Softwareentwickler usw).
@@medical-informatics ein gesicherte Intranet wäre nötig. Lieber die Personalstruktur verschlanken als aufblähen. Für die dauerhafte und sichere Überwachung der KI Systeme braucht man ja dann auch wieder sogenanntes Fachpersonal. Bei meiner Mutter im Altenheim werden die Dokumentationen immer noch handschriftlich und analog erfasst und verarbeitet. Ich hab im gleichen Heim 1990 Altenpflege gelernt und schon damals gezeigt, wie es besser und einfacher ginge... Es hat sich auch in 35 Jahren absolut nix getan. Gesundheitspflege und KI passen erst Recht nicht zusammen. Aber das ist nur meine subjektive Meinung.
Ich nutze die KI teilweise im Grafik-Bereich. In dem Augenblick, wo ich etwas Eigenes mache oder hinzufüge ist das Endprodukt wieder urheberrechtlich mein geistiges Eigentum und muß nicht mehr als KI gekennzeichnet werden oder?
Ich werde da nix kennzeichnen. Soll das doch jemand erstmal nachweisen. Wenn #Soro erstmal Online ist, dann gibt es kein halten mehr. Ich freue mich auf K.I.
Die EU erfindet den geschriebenen Satz und der Rest der Welt die nötigen Buchstaben und Satzzeichen. Schon im Aufbau stellen wir uns selbst ein Bein und Andere freut es. Aber dieses Problem ist ja schon seit Jahrzehnten bekannt und wird immer mehr reglementiert und bürokratisiert. Die EU behindert sich beim Fortschritt selber.
Ich brauche das Video gar nicht schauen, man ist ganz Stolz, dass man der Erste ist, der neue Technologie reguliert! Datenschutz über Alles, über Strafverfolgung, über Gesundheit, über Fortschritt... Man wundert sich nicht ernsthaft, dass der Fortschritt um Europa, aber nicht in Europa stattfindet? China, USA usw. suchen zu erst nach dem Nutzen! In Europa ist man noch Stolz darauf zu erst an die Bedenken zu gehen 👍
Die Unternehmen haben offen gesagt auf ein erstes KI-Gesetz - nebst den Prinzipien, denen sich Computer Scientists sowieso verschrieben haben sollten … - gewartet. Es war schon lange abzusehen, dass irgendwo ein Gesetz mal kommt. Wo wir der Vorreiter sind, werden die anderen Länder - wie unsere Völkerstrafrechtsrechtsprechung in DE - übernehmen. Daher: Nichts Neues … Diese Kennzeichnungspflicht muss auf jeden Fall her. Das ist das bare Minimum.
Dann wandern Sie doch in die USA aus anstatt hier rumzumeckern. Wenn Sie dann dort wegen eines KI-Modells mit antrainiertem Bias verhaften werden und von einem KI-Gericht zu x-Jahren Gefängnis verurteilt werden, dann, ja dann fangen auch SIE an ihr Gehirn zu benutzen.
Über den Nutzen neuer Technologien machen sich gewinnstrebende Unternehmer genug Gedanken, da würde ich mir keine Sorgen machen. Sorgen sollte man sich in der Tat eher darüber machen, ob und wann Menschen unter den Auswüchsen einer neuen Technologie zu leiden haben, denn daran denken Unternehmen eher weniger. Den "Radium-Girls", die in den Zwanzigern in den von Ihnen so gepriesenen USA an Strahlenvergiftung starben, nachdem ihre Arbeitgeber empfohlen hatten, sie könnten die leuchtende Substanz, die sie auf Uhrblätter pinselten, durchaus auch zur Verschönerung ihrer Fingernägel, Augenbrauen und Zähne einsetzen, hätte eine bessere Regulierung der damals neuen Technologie wahrscheinlich das Leben gerettet. Medikamente würden Sie auch nicht ohne solide wissenschaftliche Tests auf dem Markt sehen wollen, oder?
Ich finde es krass, dass ich mir von jeder Frau von der auch nur ein Foto habe, Nacktbilder generieren lassen kann. Da sag noch mal einer KI sei was Schlechtes.
Am Anfang des Videos wird suggeriert, dass das Problem diskriminierender KI dadurch erzeugt wird, dass einseitig selektierte Daten zum Training verwendet werden. Das war beim präsentierten Beispiel (Microsofts "Tay" Chatbot") auch sicher der Fall. Als allgemein formulierte Aussage zielt es aber m.E. am Hauptproblem vorbei: Auch und gerade bei kompletten, nicht vorselektierten Datensätzen kommen KIs regelmäßig zu diskriminierenden Entscheidungen. Einfaches Beispiel: Frauen sind erwiesenermaßen mehr Tage im Jahr krankgeschrieben als Männer. Teils liegt das natürlich an Schwangerschaften und daran, dass bei kranken Kindern eben häufig die Mutter zuhausebleibt, seltener der Vater. Auch daher dürfte ein deutscher Arbeitgeber natürlich nicht mit Argumenten wie "Wir stellen nur Männer an, die sind weniger krank" dahergekommen, er würde sich der Diskriminierung schuldig machen. Eine rein an objektiven, kompletten, nicht einseitig ausgewählten Daten trainierte KI könnte aber dennoch zu genau diesem Ergebnis kommen und dem Unternehmen vorwiegend männliche Bewerber empfehlen. Und das Problem hierbei ist: Aufgrund der Funktionsweise des zugrundeliegenden neuronalen Netzwerks könnte niemand analysieren, ob die KI tatsächlich auf diese Weise diskriminiert oder nicht. Die KI selbst kann natürlich auch nicht "erklären", warum sie zu bestimmten Ergebnissen kommt, sie "versteht" ja nullkommanichts von den Daten - sie schleust sie nur durch einen komplexen mathematischen Algorithmus und wirft das Ergebnis aus.
In Kürze: Das Problem diskriminierender KI entsteht nicht (nur) durch einseitiges Training. Es entsteht vor allem dadurch, dass sich viele Diskriminierungen aus vollständigen, nicht selektierten Datensätzen durchaus plausibel ableiten lassen. Wir haben als Gesellschaft lediglich (aus gutem Grund) entschieden, diese Ableitungen nicht durchzuführen, weil wir niemanden aufgrund von Geschlecht, Rasse, Alter, Herkunft, etc. benachteiligen wollen. Einer KI können diese gesellschaftlichen Werte nicht vermittelt werden, da sie ja schon die Bedeutung der Daten nicht versteht. Gleichzeitig wäre es enorm schwierig, einer KI eine solche Diskriminierung tatsächlich nachzuweisen, da die KI ihre Entscheidungsfindung ja nicht erklären muss oder kann.
Die Aussagen im Video implizierten (m.E.), dass der Weg zu einer "diskriminierungsfreien" KI darin gesehen wird, die KI eben nicht "einseitig" zu trainieren. Wie oben dargelegt, würde dies das Problem nicht lösen. Der einzige halbwegs sichere Weg, diese Art von Diskriminierung zu vermeiden, wäre, die betreffenden Daten von vornherein aus der KI herauszuhalten. Selbst dann kann und wird es aber dennoch zu Diskriminierungen kommen. Um auf's obige Beispiel zurückzukommen: Selbst wenn der obigen "Personauswahls-KI" das Geschlecht der Kandidaten weder im Training noch bei der Anwendung mitgeteilt wird, könnte (und würde) sie noch immer zu diskriminierenden Ergebnissen kommen, wenn sie Daten erhält, die mit der Geschlechtsvariable korrelieren - z.B. Körpergröße. Die Aussage "Größere Menschen haben im Schnitt weniger Krankheitstage als kleinere Menschen" wäre ja ebenfalls korrekt, da Frauen im Schnitt kleiner sind als Männer, und eine KI, die diese Variable erhält, würde diesen Zusammenhang in ihrem Algorithmen abbilden. Eine ohne Geschlechtsvariable, aber mit Angabe der Körpergröße trainierte KI würde daher zu gleichsam diskriminierenden Entscheidungen gelangen - die Diskriminierungen würden lediglich große Frauen etwas seltener und dafür kleine Männer etwas häufiger betreffen.
Einfache Lösung. Es gibt schon KI, welche ihre Quellen angeben. Dann kann man es nachlesen. Wer wichtig Unternehmensentscheidungen nur von der KI treffen lässt hat eh ganz andere Probleme ;)
Gerade mal getestet. Die KI rät mir nicht mehr Männer als Frauen einzustellen, weil sie öfter krank sind, weil das diskriminierend wäre. Außerdem weist sie verschiedene komplexe Zusammenhänge zwischen dem Geschlecht und den Krankheitstagen hin
@@MürrischeHummel Das ist richtig, löst aber nicht das Problem. Quellenangaben ersetzen ja keine Erklärung der Entscheidungsfindung. Es ist ja gerade eine der Besonderheiten von neuronalen Netzen, dass die tatsächliche Entscheidungsfindung praktisch nicht nachvollzogen werden kann. Welche Gewichtungen welcher Neuronen zu dem Ergebnis geführt haben, das eine KI ausgespuckt hat, können Sie vielleicht mit einer zeitaufwändigen Analyse noch ermitteln. Aber welche zugrundeliegenden Konzepte hinter diesen Gewichtungen stecken, werden Sie nicht herausfinden.
Natürlich kann man eine KI mit einem Language Model kombinieren, welches Erklärungen auswirft, die für Laien plausibel wirken - so als würde "die KI sagen, wie sie denkt". ChatGPT kann durchaus auf Laien so wirken, solange die Texte nicht allzu lang oder komplex sein müssen. Tatsächlich referiert die KI dann aber keineswegs über ihren eigenen Entscheidungsprozess - den versteht sie nämlich überhaupt nicht und man könnte auch durchaus darüber streiten, ob eine "Entscheidung" überhaupt stattfindet, wenn lediglich ein Input über einen weitgehend deterministischen (wenn auch hochkomplexen) Algorithmus in einen Output umgewandelt wird. Die KI ist dann nur gut darauf trainiert worden, einen Text zu produzieren, der wie ein plausibler Entscheidungsprozess _klingt_ - was eine phänomenale Leistung ist, aber eben fundamental verschieden vom echten Referieren eigener Gedanken.
Wo kommt jetzt das „etwas“im letzten Satz her?
@@MürrischeHummel ChatGPT gibt ihnen die weichgespülteste Formulierung jetziger Werte. Verstehen oder Erkennen gibt es da nicht, sie sollten @psyringe5627 s Kommentar noch einmal sorgsam lesen.
Ich bin bei Facebook und Instagram auf die Aktivität von AI hingewiesen worden sowie auf meine Möglichkeit, begründet zu widersprechen. Das habe ich getan und begründet, dass ich urheberrechtsrelevante Inhalte poste (eigene Sachen). Dem wurde stattgegeben und das wurde mir auch bestätigt.
Ganz toll gemacht!
@@andi8343 Danke. Empfehlung an alle die das auch so rechtfertigen könnten!
Ich denke jegliche Begründung ist ausreichend dafür xD was anderes dürfen die garnich
@@Katojana Leider sind Gesetze nicht immer mit dem individuellen Rechtsempfinden vereinbar. Hier wurden in der Vergangenheit so einigen Direktiven Vorrang vor Menschenrechten gegeben.
Ich sehe es schon kommen: "Für den Zulassungsantrag senden Sie bitte den Quellcode auf einseitig bedrucktem DIN A4 Papier ein. Bitte lose und weder getackert noch mit Büroklammern, damit die Digitalisierung erleichtert wird.
Andere Formen der Einreichung werden ignoriert." 😂
Was ist denn der Unterschied zwischen Hochrisiko KIs und dem was Auskunfteien mit unseren Daten machen?
Mich würde mal ein Video interessieren, welches sich mit TH-cam, speziell mit TH-cam Deutschland befasst.
Konkret in Punkto Zensur, was Kommentare und vor allem auch Videos betrifft. Wie ist es rechtlich vereinbar, dass ein Algorythmus/eine KI z.B. Videos demonetarisiert oder direkt komplett löscht, weil irgendetwas AGB-widriges erkannt wird, was aber nicht da ist?
Man hört immer öfter von Creators, dass ihre Videos grundlos demonetarisiert oder gar gelöscht werden und selbst der Support nicht weiß, warum eigentlich. Heißt, die haben da nicht mal selbst Einblick. Wie kann sowas sein? Immerhin gehen den Creators dadurch Einnahmen flöten, weil ein Algorythmus/eine KI Mist baut.
Und Kommentare werden auch immer öfter gelöscht, obwohl man nichts AGB-widriges schreibt, was ganz klar gegen die Meinungsfreiheit verstößt.
Hier werden Begrifflichkeiten und Konzepte miteinander vermischt, die nichts miteinander zu tun habe.
Es gilt das Hausrecht. Begriffe wie "Meinungsfreiheit" oder "Zensur" stehen in Verbindung mit den Grundrechten in Deutschland. Diese versteht man als "Abwehrrechte Privater gegenüber dem Staat". Du kannst also "nur" deine Meinungsfreiheit ggü. staatlichen Organisationen geltend machen. Zensur in diesem Sinne wird demnach "durch den Staat oder dem Staat zurechenbare Stellen" ausgeübt.
"Eine Vorauswahl privater Stellen, ob Beiträge veröffentlicht werden oder nicht, ist daher keine Zensur im Sinne des Grundgesetzes und verfassungsrechtlich unbedenklich."
@@so-u-l-ist7704 Demonetarisierung ist aber keine Vorzensur sondern ein nachträglicher Eingriff, bei dem TH-cam mit dem Kontent weiter verdient, aber die Einnahmen nicht mehr weitergibt. Mit Zensur hat das kaum etwas zu tun.
Und mit Hausrecht ... höchstens vielleicht (Vergleich hinkt) so wie wenn ein Restaurant die Reservierung bestätigt, dich an den Tisch setzt und dann nach dem Aperitiv entscheidet, dass du zwar sitzenbleiben und voll bezahlen darfst, aber nichts mehr zu essen bekommst. Und das Ganze, weil der Sohn vom Eigentümer zufällig beim Flaschendrehen auf deinen Tisch gezeigt hat.
@@so-u-l-ist7704 Das ist sicherlich korrekt, löst aber das im Kommentar beschriebene Problem bei YT nicht.
Die Frage ist noch offen inwiefern anonymisierte bzw synthetisch generierte Daten verwendet werden können. Wird interessant wie es dann in der Umsetzung aussieht.
Wie ist denn das Pricing von amber search? Ist es basierend auf der Mitarbeiter Anzahl oder anzahl an Computer oder so des Unternehmens? Wär ja sonst kacke wenn ein 15 Personen Betrieb ähnlich viel zahlen muss wie in 10.000 Personen unternehmen.
Nutzerbasiert, bei größeren Nutzermengen gibt es ein individuelles Angebot
"Nur für schwere Straftaten" ist fast wie "Nur gegen Kinderpornographie": Das ist der Rammbock, mit dem das Tor eingerissen wird, und wenn die Technik erstmal etabliert ist, kommen die Versuche für Gesetzesänderungen, die den Einsatz ausweiten sollen. Hat man bei den Mautbrücken sehr schön beobachten können, da sind ja mehrere dieser Versuche gescheitert.
Ja, wer auf diese Begründung noch reinfällt, ist entweder jünger als 10, lebensuntüchtig naiv oder dumm wie Rattenkot. Eigentlich könnte man denjenigen unter KI-Aufsicht stellen.
Es muss ja nur möglich und in einigen Ausnahme fällen erlaubt sein, dann schert sich kein Schwein mehr darum, wenn sich daran in anderen Fällen nicht dran gehalten wird. 😊
@@Schaf_Richter Wir wissen schließlich alle: Wenn die deutsche Gesetzgebun eines kann, dann Ausnahmefälle schaffen.
@@SYCHR0N ja wie gesagt, es braucht ja gar nicht legal sein, jemanden wegen Falschparkens zu überwachen: Wenn die Grenze nur noch ein Klick auf dem PC ist und man hat den "Täter" identifiziert, dann schert das am Ende niemanden mehr. Denn wie willst du als Falschparker nachweisen, dass die dich auf Grund von "KI" Auswertung geschnappt haben? Da hast du ja keinen Hinweis drauf.
Ich persönlich finde die KI Thumbnails nicht gut. Man weiß, dass es nicht echt ist. Und was nicht echt ist, kann ich weniger ernst nehmen. Andererseits sind "echte" Thumbnails auch oft stark verändert. Vielleicht sieht das die jüngere Generation auch anders. Aber auf mich wirken die KI Thumbnail irgendwie weniger seriös.
Gleiches Gefühl hier. Ich will nicht ausschließen, dass eine gut trainierte KI mit hinreichender Kapazität auch gute Vorschaubilder erstellen kann. Aber die Bilder, die ich zuletzt gesehen habe, sahen doch sehr nach Betriebsunfällen aus (fragwürdige Komposition, technische Mängel, und generell einfach ein sehr unprofessioneller Gesamteindruck). Das ist mir bereits aufgefallen, bevor ich jetzt gehört habe, dass die Bilder jetzt von einer KI erzeugt werden, kann also auch nicht an selektiver KI-kritischer Wahrnehmung liegen. Bei den bisherigen handgefertigten Vorschaubildern war, auch wenn sie teils stark manipuliert waren, sowohl die Komposition als auch die technische Ausführung besser.
@@psyringe5627 Ich hatte sofort gesehen, als WBS bei den Thumbnails auf KI umgestiegen ist. Es ist einfach zu deutlich sichtbar und wirkt zu künstlich.
Ja am Ende geht es ja oft darum Zeit und Arbeit zu sparen. Wenn man dann das erste, aufgrund eines 3 wörtigen Promts erstellte, Ergebnis unbearbeitet nimmt, wird das halt unseriös, wenn man nur das Thumbnail anstarren würde. Ich gehe davon aus, dass viel mehr bereits „KI“-erstellt ist, als wir glauben. Nur sind das dann halt Profis, die das bloß als startpunkt nutzen und es gut zu maskieren wissen. Kein wbs Praktikant oder gar der Herr Solmecke am Ende eines langen Tages. Und ehrlicherweise, ihr Gefühl, etwas unseriös zu finden ist TH-cams Algorithmen auch wieder egal wenn sie dann doch drauf klicken.
Gut man muss allerdings auch bei den unzumutbare Risiken bezogen auf die Kameraüberwachung bei der Suche von Straftätern auch die entsprechenden Institute, Organisationen und Behörden in ihre Schranken weisen. Man kann ja mit Kamerasystem nach Straftätern suchen solange die gescannten Gesichter oder die Informationen wer wo ist und was diese Person gerade macht nicht gespeichert und bestehende Informationen nicht in Zusammenhang bringen. Dann würde ich Kameraüberwachung mit Gesichtserkennung weniger hoch einstufen. Wenn die Daten allerdings doch gespeichert werden dann wird es kritisch
Interessant, dass eure Vorschaubilder nun mit KI produziert werden. Betrifft das bereits die Bilder aus der jüngeren Vergangenheit? Die wirkten auf mich nämlich teilweise recht komisch und sehr unprofessionell zusammengesetzt. Ich hatte mich schon gefragt, ob der eigentliche Designer vielleicht im Sommerurlaub ist. Wenn die von einer K"I" zusammengeschustert wurden, würde das natürlich einiges erklären.
Aber dann gilt das ja nur für die EU. Der Rest der Welt kann dann immer noch mit den Daten tun und lassen, was sie wollen. 🤔 Ich meine unsere Daten gehen ja hauptsächlich Übersee, aber wenigstens sind dann EU Firmen etwas vertrauenswürdiger.
Eine KI die Gesetze inkl. GG menschenrechtskonform anwendet und auslegt wäre ziemlich gut.
Menschenrechtsabkommen sind living instruments. Sie werden entsprechend der gesellschaftlichen Entwicklung verstanden. D.h. die Begleitdokumente können sehr umfangreich sein. Und je nach Fall müssen unterschiedliche Informationen verwendet werden. Hinzu kommt ein oft anderes Verständnis z.B. was Nichtdiskriminierung und Mehrkosten angeht.
@wbs zählt unter ki auch rpa? Also roboter Prozesse die zb men rentenamtrag lesen und dann bewilligen?
Das würde glaube ich auch unter Hochrisiko-KI's falllen.
@@valentinmunch2941 denke das ist keine ki
5:18 nicht nur Trainings Daten sondern auch zukünftig eingespielte Daten können das Bewusstsein beeinflussen
Bei der einen Bank bei der ich bin hab ich das Vermutung das dir ggf nur einmal gesagt das man mit einem Chatbot chatten reicht das wirklich schon aus oder muss sich der Chatbot immer wieder vorstellen als solcher Vorstellen?
Hallo, Sie sagten in Ihrem Beitrag, das wenn persönliche DAten z.B. von mir in einer AI vorhanden wären, und ich nicht damit einverstanden wäre, das man diese kaum wieder aus einer AI entfernen könne. Ich bin da etwas anderer Meinung, es gibt da einen einfachen aber sehr heftigen Weg. Der Anbieter hat dann halt nicht richtig aufgepast, das ist sein unternehmerisches Risiko, dann muss er halt seine komplette AI löschen und von Anfang an neu beginnen, dann sind alle Daten weg, so muss das laufen. Wir Menschen sind immer wichtiger als KI oder eine AI und uns muss der höchste Schutz gelten.
Hmm, wie würde ein "richtig aufpassen" des betreffenden Unternehmers denn Ihres Erachtens technisch realisiert werden? Wie Solmecke bereits ausgeführt hat, ist es nicht möglich, spezifische Daten aus einer KI wieder zu löschen. Das ist wie wenn ich Ihnen mein Geburtsdatum verrate - sobald diese Info in Ihrem Hirn gespeichert ist, kann ich Sie nicht dazu zwingen, sie wieder zu vergessen. Ich kann die Nachricht löschen, mit der ich die Info herausgegeben habe, aber das ändert ja nichts mehr an Ihrem Wissen. Genauso können Ihre persönlichen Daten nicht mehr aus einer KI entfernt werden - man kann ja nicht einmal herausfinden, wie die Information in den Algorithmen der KI abgespeichert wurde. Das ist nicht wie in einer Datenbank, wo man einfach mal eine Zeile löschen kann, sondern mehr wie in einem Gehirn, wo keiner weiß, wie die Informationen genau abgespeichert wurden.
Gleichzeitig bietet die GDPR aber jedem Betroffenen die Möglichkeit, der Verwendung seiner Daten jederzeit zu widersprechen. Das bedeutet letztendlich: Was Sie fordern, ist, dass keine KI jemals personenbezogene Daten verarbeiten soll. Denn jede KI, die das macht, müsste komplett weggeworfen und von Grund auf neu trainiert werden, wenn auch nur ein Einzelner seine persönlichen Daten zurückzieht - jedes Mal. Das wäre dann so teuer (und so einfach zum Schaden des Unternehmens missbrauchbar), dass die Entwicklung einer solchen KI schlicht nicht praktikabel wäre (da wirtschaftlich zu riskant) - egal wie gut der Entwickler "aufpasst".
Wenn das Ihre Position ist - okay, respektiere ich. Aber seien Sie sich bitte bewusst, dass unter der von Ihnen vertretenen Regel "wenn persönliche Daten nicht entfernt werden können, muss die KI eben weggeworfen werden" keine KI mehr persönliche Daten jedweder Art verwenden könnte, auch nicht in Situationen, wo es hilfreich wäre und/oder Leben retten könnte. Und da kommen Sie dann m.E. in einen Konflikt mit Ihrem Ziel, Menschen immer den höchsten Schutz zukommen zu lassen.
Völlig unmöglich auszuschließen dass etwas angeblich legales in den Trainingssatz gerät. Wie denn auch, bei Abermilliarden von Daten.
Von daher absurder Einwand.
In gedruckten Büchern kann man nicht so ohne weiteres maschinenlesbare Urheberrechts-Hinweise unterbringen.
Außerdem sollte der Vorbehalt ja für Werke, die vor dem Inkrafttreten des Gesetzestextes veröffentlicht wurden, automatisch gelten, da man ja nicht in er Lage war, das vorauszusehen.
Dann würden wir in der Konsequenz allerdings noch in den Höhlen sitzen.
Ich würde mich da an der primären Richtung orientieren: wer veröffentlicht, möchte Öffentlichkeit. Sonst könnte man ja genauso alte Werke für Schwarze, Weiße, Gelbe etc. verbieten, weil der Autor nicht wusste, dass es China, USA, Europa etc. gegeben hat, als er sein Werk erstellte.
Wer das nicht will, sollte es einfach lassen bzw. aus dem allgemeinen Raum heraushalten.
@@TheCobraCom Das würde bedeuten: Gar kein Copyright. Die Folge wäre gar keine Künstler, die müssten dann ja einem bezahlten Full-Time Job nachgehen,weil ja jeder ihre Werke kostenlos beliebig verwenden dürfte.
Hey wbs Team 👋 könntet ihr zu dem Thema ein Video machen zu bildrechten? Was ist mit kommerzieller Nutzung von generierten Bildern von Anbietern wie beispielsweise freepik? Freepik selbst hat sich da in den terms of use fein eingenommen und alles schön schwammig formuliert. Wäre sehr interessant. Danke im Vorfeld
Freepic, Pixabay, CreativFabrica (ich habe einen kostenpflichtigen Account) und andere "legalen" Anbieter sind ja eh sehr komisch. Ich habe die Rechte, nur weil der, der sie zur Verfügung stellt behauptet es sei eine eigene Kreation. Was aber nun, wenn der Hochladende selber kopiert hat und eigentlich gar kein Recht am Produkt hat? Dann habe ich als Unwissender auch keine Rechte - auch wenn ich die Sachen von dieser Plattform habe. Die TM Prüfung ist also dennoch notwendig.
Wie sieht das mit Rechten/Nutzungsrechten aus bei AI-veränderten Fotos? Also als Prompt eigene Fotos (zB Selfies), die nach bestimmten Themen verändert wurden, zB der Nutzer als Rembrandt-Gemälde. Da ist ja die Person idR immer noch eindeutig erkennbar und zuordbar. Ist das Ergebnis dann über die "komplexe Prompt" Regel geschützt, oder wird da auch von Gemeinfreiheit ausgegangen?
Axel kennt man auch von Chat Kontrolle und anderen Antidemokratischen Aktivitäten...
Das wäre so einer, den man gerne durch eine KI ersetzen dürfte. Besser künstliche Intelligenz als gar keine.
Das mit dem Filter wird richtig lustig, wenn sich ein Herr Spiegel oder Frau Stern beschweren. Oder ein Herr Brandenburg.
...die sog. Singularität ist bei der KI eigentlich etwas Anderes...es beschreibt eher denk Punkt, an dem eine "starke" bzw allgemeine KI erschaffen wird.
damit wird eine KI bezeichnet, die nicht mehr (wie aktuelle KIs) nur spezielle Aufgaben lösen kann...sondern die quasi alle Fähigkeiten aller KIs in sich vereint...also "die eine KI für ALLES".
14 Jahre ist das schon her ... omg bin ich alt geworden...
KI ist das größte Problem unserer Zeit.
Sicher EIN Problem...aber wir haben sehr große weitere Probleme, sowohl innen- als auch außenpolitisch 😮
das heißt, wenn ich ein KI Tool nutze um von mir ein Comic-Bild zu machen wäre dies dann von jedem nutzbar ohne das ich Einspruch erheben könnte?
Bist du eine eingetragene Marke?
Das ist nicht dein Werk und fertig.
@@ginko-1163 ich glaube es geht ihm eher um sowas wie Recht am eigenen Bild.
@@samthesomniator genau! :)
@@samthesomniator ich hab mich noch nicht eintragen lassen, aus Kostengründen würde ich das auch eher vermeiden.
4:09 Was'n hier passiert? :D
Solmekes ai avatar hatte kurz nen glitch 😂 jk
Die AI der Matrix hatte einen kurzen Aussetzer und man hat hat gesehen, dass Herr Solmecke eigentlich ein Teil der Bluemangroup ist
Forza war fertig runtergeladne
Diese Farb"glitches" sind mir schon seit einer Weile in einigen seiner Videos aufgefallen.
Da war kurz die Wahrheit zu sehen. Solmecke ist eigentlich aus Avatar.
Die Atomkraftwerke abschließen können wir in Deutschland schon selbst, da brauchen wir keine AI für xD
14:30 Is ja nicht unser Problem, wenn die Entwickler das so konzipiert haben. Dann sollte man halt einfach mal verantwortlich handeln und KIs so konzipieren, dass sie in der Lage sind Gesetze entsprechend einzuhalten. Ich meine WTF, wovon reden wir hier bitte? Ich kann auch nicht einfach einen autonomen Panzer programmieren, der durch Innenstädte fährt und wild um sich schießt und dann sagen "Tja, geht halt nicht mehr zu stoppen, sorry".
Wenn die Gesetze bereits vorher bestanden und Ihnen bei der Erstellung des Produkts hätten bewusst sein müssen, klar. Bei Ihrem Panzerbeispiel ist das ja auch der Fall. Im Fall von KI herrschte teilweise halt noch der Wilde Westen - die Grenzen dessen, was man durfte und was nicht, waren eben oft nicht klar. Genau da soll der AI Act ja nun Klarheit schaffen. Die Behandlung bereits bestehender, unter unklarer Gesetzeslage initiierter Projekte ist da mitunter etwas schwierig - grundsätzlich stimme ich aber mit Ihnen überein, dass es die Verantwortung der Entwickler sein muss, ihr Projekt gesetzeskonform zu konzipieren.
Im Fall der von Ihnen angesprochenen Regelung wird das Problem darin gesehen, dass die gesetzeskonforme Konzeption jedweder KI, die mit personenbezogenen Daten umgeht, schlichtweg nicht möglich wäre. Nach GDPR wäre ja jeder Beteiligte jederzeit berechtigt, seine Daten aus dem System zurückzuziehen. Das ist aber bei einer KI technisch unmöglich. Kurzes Beispiel zur Demonstration: Sie haben in der Schule sicher irgendwann mal über einem Mathe-Buch gesessen und (sagen wir mal) den Dreisatz gelernt. Wenn jetzt eine Regulierungsbehörde im Dreisatz ein Werk des Teufels sieht und das Mathe-Buch verbannt, ändert das überhaupt nichts daran, dass Sie den Dreisatz immer noch anwenden können und automatisch auch werden. Und selbst wenn es möglich wäre, selektiv Neuronen in Ihrem Hirn auszuradieren, könnte man Ihnen das Wissen um den Dreisatz nicht mehr nehmen - weil niemand weiß, wie genau dieses Wissen in Ihrem Hirn abgespeichert ist.
KI funktioniert auf eine ähnliche Weise. Die Daten, mit denen eine KI trainiert wird, beeinflussen die digitalen "Neuronen" des neuronalen Netzes. Wenn das Training beendet ist, können Sie die Trainingsdaten auch wegwerfen, das ändert nichts mehr an der Funktionsweise, die die KI verinnerlicht hat. Wenn Sie Ihre KI darauf trainiert haben, auf die Eingabe "Hans" mit "Idiot" und auf "Helga" mit "Genie" zu antworten, wird diese Information zwar irgendwo in den komplexen Algorithmen der KI abgebildet - aber wenn Hans oder Helga nun der Verwendung ihres Names widersprechen, dann können Sie nicht eine einzelne Formel oder ein einziges Neuron isolieren, das diese Information gespeichert hat, und diese Information spezifisch löschen. Sie müssten im Prinzip die ganze KI wegwerfen und das Training ohne die Namen von Hans und Helga wiederholen.
Die EU möchte hier offenbar einen Mittelweg finden, unter dem KI-Entwicklung möglich bleibt, die Persönlichkeitsrechte Betroffener aber trotzdem gewahrt werden. Deshalb kommt man wohl zu diesem etwas holprig anmutenden Vorschlag, dass die KI eben nicht weggeworfen werden muss, dass die betreffenden Daten aber nicht mehr nach außen dringen dürfen. Im obigen (kruden) Beispiel könnte man also z.B. einen Filter implementieren, der eine Ausgabe unterdrückt, wenn die KI mit dem Input "Hans" oder "Helga" konfrontiert wird. Ob das eine gute Lösung ist, kann und muss sicher diskutiert werden - aber es ist ein durchaus kniffliges Problem, das m.E. keine einfache Lösung hat.
@@psyringe5627 Danke für diese sachliche Nachricht, sehr erfrischend, dass man so etwas auch einmal erleben darf.
Da ich selbst KIs entwickle muss ich Ihnen aber leider in ein paar Punkten widersprechen.
1. Bestehende KIs können korrigiert werden, um wissen zu verlernen. Bspw. über die negative-reward-method und einige Weitere.
2. Alte Techniken mussten sich schon immer an neue Gesetze anpassen und KIs dürfen und sollten hier mehr als alles andere ausdrücklich keine Ausnahme machen, da deren Gefahrenpotenzial und die damit verbundene Verantwortung teils extrem hoch ist.
3. Mag sein, dass es den AI Act noch nicht gab, die europäischen Werte und gesunden Menschenverstand jedoch sehr wohl. Von daher ist der AI Act wohl kaum eine "Neuigkeit" für Google und ähnlich weit verbreitete Anbieter von KI. Nur der Umstand, dass es nun gesetzlich verpflichtend ist, sich an bestimmte Dinge zu halten ist neu.
Ich persönlich finde, KIs dürfen niemals für einen Menschen nachteilige Entscheidungen allein treffen. Da das aber darauf hinauslaufen wird, dass Menschen dann halt einfach sagen "KI wird schon recht haben, passt so", muss eine negative Entscheidung erst von einem Menschen geprüft und begründet werden, bevor dieser die Begründung der KI sehen kann, und nur wenn die Begründungen gleich sind, ist die negative Entscheidung auch erlaubt.
ki ist vertraurnswürdiger sls mainstreammedien und politiker uns all die gekauften 'experten'.
und die menschen legen bereits jetzt schon das von dir befürchtete verhalten an den tag, halt einfach mit obigen instanzen ...
Ich bin gegen "KI" --- Terminator und WarGames lassen Grüßen
Dann schreibe ich doch gleich mal unter dieses Video, dass ich nicht möchte, dass meine Daten zum Training welcher KI auch immer genutzt werden!
Auch interessant, zum Thema KI-generierte Bilder, ist die Frage, wie es mit dem Copyright aussieht, wenn man die KI lediglich nutzt um eigene Werke zu vollenden/aufzuwerten.
Ich bin auf stable diffusion und co erst richtig aufmerksam geworden, als ich von der image to image Funktion gehört habe. Wenn man ganz OK zeichnen kann, aber für mehr der Skill/das Wissen und Material fehlt ist es echt ne feine Sache sich die Kreationen durch SD und co fertigstellen/aufhübschen zu lassen. Da die Grundlage dann ja eine eigene Kreation ist, an der man prinzipiell die Rechte besitzt, könnte ich mir schon vorstellen, dass das nochmal zusätzlich schwierig wird, wenn einfach pauschal geregelt wird, dass man an KI-Kunst keine Rechte haben kann.
wäre auch cool gewesen wenn man bildgenerierende ki firmen dazu verpflichten würde, auch detektoren für generierte werke zur verfügung zu stellen
Wenn du ne KI zur Bildgenerierung trainierst, dann trainierst du ein modell das ein Bild generiert (Generator), und ein modell das erraten muss ob das Bild ein echtes oder ein generiertes Bild ist (Diskriminator), irgendwann wird der Generator so gut dass der Diskriminator keinen unterschied zwischen den echten und generierten Bildern mehr erkennen kann. Der Diskriminator ist also das, was du dir hier vorstellst, du musst die Unternehmen nicht dazu verpflichten, weil sie es sowieso freiwillig machen, nur funktioniert dieser ansatz nicht. Desto besser der Diskriminator wird, desto besser wird auch der Generator, die beiden Trainieren sich gegenseitig hoch. Es gibt auch noch stable diffusion modelle die keine Diskriminatoren brauchen, aber wenn du bei denen so ein erkennungsmodell trainieren willst rennt man früher oder später in genau das gleiche problem.
Glaub mir, KI unternehmen würden selber gerne erkennen ob die Daten KI-generiert sind oder nicht, da modelle die mit ihrern eigenen Outputs trainiert werden schlechter werden (Model Collapse), nur können sies nicht.
@3:07 Ich glaube, viele der Pornodarsteller muss man nicht "missbrauchen" zum Darstellen, die machen das schon ganz gerne von sich aus...
als künstlerisch schaffende person warte ich auf eine ki, die die illegale nutzung meiner werke aufspürt und automatisch an meinen anwalt leitet. 😊
... an Deine Anwalt-KI, meinst Du wohl ... solche einfach gelagerten Massenverfahren wären prädestiniert. Aber mal sehen, was die Richter-KI dazu sagt.
Das ist ja genau der Grund warum Leute in Zukunft menschengemachte Werke meiden werden wie der Teufel das Weihwasser
Danke für die info Herr Solmecke
Um mit AI verantwortungsvoll umgehen zu können, sollte der Mensch auch seine Sprache beherrschen, um Korrekturen vornehmen zu können. Von "Kunst" ganz zu schweigen, seelenlos, leblos und durchschaubar. Wenn ich manche Texte auf Webseiten lese, dann weiß ich nicht, ist das AI oder ein Schulabgänger gewesen?! Bin jetzt auch nicht perfekt aber wer Gendern für gutes Deutsch hält und Mitarbeitende schreibt anstatt den grammatikalisch korrekten Plural, kann ich nur sehr schwer weiter lesen. Erstmal übergeben, dann weiter lesen. Meistens ist dann fast ein Eimer voll, wenn der Text zu Ende ist. Oder... Fuß mit ss... Alles in Maßen genießen, anstatt in Massen.
Im Bezug auf die Thumbnails kann ich nur sagen.
Sehen aus als hätte jemand erste Gehversuche mit Paint unternommen.
Ganz Ganz gruselig...
EU nicht den Layen überlassen. IT-Bildungsferne Politiker über unsere Zukunft entscheiden lassen.... ob das so gut ist ;D
Ich nehme mal an das sich an den AI Act nur die Firmen halten müssen die auch in der EU tätig sind bzw. hier Filialen haben. Eine Firma die zum Beispiel in Süd Korea sitzt und 'ne englischsprachige Webseite hat muss sich daran wohl nicht halten.
Tay war eine lustige Aktion
Herr Solmecke ist eine KI Mensch 😅😎
5:17 lacht sich der Herr Voss da ins Fäustchen? Ich bekomme da schon ne Wut wenn man ausgerechnet den dort sieht und dass auch noch so hämisch lachend. 😑
Er ist ja der Experte für AI... 😂😂
@@Angriffsmacht Experte fürs AI-nmachen vielleicht 😅
Bitte mal auf die neuen Entwicklungen bei Nordwolle / Marco Scheel eingehen!
Bei mir gibt es keine KI/AI was für Oblast Kiew stehen tut auf dem Rechner
Es gab schon Jahre vor dem KI-Hype Unternehmen die Bewerbern einen Termin geben an dem sie daheim von einem Computer angerufen werden, und dieser stellt dann Fragen, um anhand des Inhalt der Antworten, anhand der Wortwahl (Intelligenz...), und weiterer Faktoren wie Sprachmelodie (Selbstbewusst oder nicht) oder der sprachlichen Färbung zu entscheiden ob die Person einen Termin zu einem Vorstellungsgespräch erhält.
Ich halte nichts von Soziolekten, und wenn eine KI erkennt dass ein Mensch eine "Färbung" in der Aussprache hat, ist das die Schuld der Eltern.
Klar, ein Migrant der im Ausland geboren ist, der hat seinen Akzent, aber wenn die Dritte oder Vierte... Generation noch eine "Färbung" hat, ist es ein Soziolekt, und deutet auf soziointellektuelle Unterschicht hin. Falls jemand meint dass wäre nicht der Fall, haben wir unterschiedliche Definitionen von Unterschicht. Cem Özdemir hat keinen Soziolekt, obwohl seine Eltern wohl direkte Einwanderer waren. Die aber Wert darauf gelegt haben, dass man es nicht hört. Also nicht wie scheinbar immer noch verbreitet bis zum evtl. Kindergarten nur Türkisch oder Arabisch mit dem Kind gesprochen wird.
Z.B. ist für einen Ausbilder von Knastwärtern JEDER seiner Schüler soziointellektuelle Unterschicht. Das hat er öffentlich gesagt. Ist in einem Blog-Artikel von RA Udo Vetter zu lesen.
Wenn man sich hier Videos im KFZ-Reparatur-Bereich ansieht, wirken diese Menschen nicht selten auch "schlichter". Gerne auch als "Authentisch" schöngeredet.
In den USA gilt das auch für "African-American Vernacular English". Was nicht mal einen migrantischen Ursprung hat, sondern eine sich entwickelte Subkultur ist.
Wenn es bei solchen Anrufen eines Computer keinen Hinweis auf die Ethnie gibt, ist es vorsichtig ausgedrückt nicht verwerflich solche Dinge nachteilig zu bewerten.
Das gilt auch für Namen in solchen Subkulturen. Wäre ich Afroamerikaner, ich würde den eigenen Kindern sicher keine Namen wie "Shaneequa" etc. geben.
So wie in Deutschland "Dschakeline", "Mandy", "Kevin" etc..
Was das angeht, sind (fiktive) Vorbilder Carlton Banks, Steve oder Cleveland Brown... Auch Steve Urkel.
Wenn ich könnte, würde ich einen Schurken aufhalten, der/die einen Virus entwickelt der die Gene der Menschen hin zu höherer Intelligenz, und wenn möglich auch weniger weiblicher und männlicher Toxizität und weg von Menschen wie in DSDS verändern kann...? Ich weiß es nicht ;-) .
Ein Anfang wären Influenzer die statt der eigenen Gene Eizelle und Spermium von Spendern mit IQ180 beschaffen, und damit ein Kind mit IQ um 140 bekommen.
Und das populär machen...
P.S.:
Sh** in, mushrooms out...
Das Problem daran ist ja, dass es nicht transparent und damit unmittelbar willkürlich ist.
Wenn bei dem Anruf auf Anzeichen von Soziopathie geprüft würde, hättest du z.B. auch einen Nachteil, da dein Gequatsche starke Indizien dafür hergibt. 😊
@@Schaf_Richter
Es ist nicht automatisch willkürlich, nur weil es nicht transparent ist.
An welcher Stelle sollte man denn hier "Soziopathie" sehen?
Etwa dass Influenzer statt mit den eigenen Genen öffentlich nach Spender-Keimzellen suchen sollten, um mit diesen Kinder zu bekommen?
Erstens müssten die Influenzer nicht aktiv dazu "aufrufen" es ihnen gleich zu tun, und Zweitens hätte das absolut nichts mit "Soziopathie" oder Psychopathie zu tun.
Ein bekannter Psychopath ist Professor Lesch. Das bestätigen Leute die ihn persönlich kannten, und der Bluescreen-Vorfall (in den Medien erwähnt) bestätigt das auch.
Diese Influenzer könnten natürlich dazu aufrufen, aber auch das hätte nichts mit "Soziopathie" zu tun.
Das zu tun, oder dazu aufzurufen wäre auch in keinster Weise moralisch verwerflich oder auch nur problematisch.
Im Gegenteil, Menschen mit hohem IQ sind nachweislich glücklicher und eher linksliberal als Rechtskonservativ.
Außerdem würden sie natürlich die Menschheit voran bringen.
Also wo ist das Problem? Und wie kommt man da völlig ohne Bezug auf "Soziopathie"?
Zu Bewerbungen. Wenn das so wäre, läge ich Wert darauf dass das Unternehmen von vorne herein meine Ansichten kennt.
Denn am Ende würde ICH darüber entscheiden ob ich dort arbeiten würde. So wie es richtigerweise in der Gen. Z immer populärer wird.
DIE stellen im Gespräch kritische Fragen, und lehnen auch Jobs ab, für die sie dann am Ende Zusagen erhalten.
Weil SIE es sind, die entscheiden ob sie dort arbeiten. Ich bin Gen. X, aber sehe das genau so.
In meinem Leben stand auch nie jemand "über mir", und ich spreche mit jedem Menschen gleich.
Und Nein, ich habe noch nie ALG2 oder auch ALG1 bezogen.
Wozu Influenzer auch aufrufen sollten, und was Unternehmen gar nicht gefallen dürfte, aber in keinster Weise "soziopathisch" ist, ist Frugalismus.
Man spart bis man 30 ist alles was man nicht zum Überleben braucht. Also keinerlei Reisen, Ausgehen, extern Essen etc. etc. etc..
Frugalisten rechnen für ZWEI Personen pro Woche für Lebensmittel €25. Aktuell können es auch Verteuerungsbedingt €30 sein.
Wohnen für evtl. 25m² in Brandenburg für €180. Sogar in Köln Innenstadt im hippen Belgischen Viertel nahe der Uni sah ich mal für den Preis warm eine Wohnung.
Alternativ Vanlife oder Elternhaus (sie können ja was an die Eltern zahlen, und helfen).
Dann können auch Ladenschwengel und Hinternputzer mit 30 in den Ruhestand gehen.
Bis dahin wird alles was nicht zum Überleben nötig ist gewinnbringend angelegt.
Man muss dann mit 30 nicht kündigen, aber man KANN es. Man kann dem Chef dann auch sagen, dass man nun genug passives dauerhaftes Einkommen angespart hat, um nicht mehr arbeiten zu müssen, wenn man mit dem um z.B. mehr Geld verhandelt.
Oder man kündigt einfach, weil man die Arbeit eh nur fürs Geld gemacht hat...
Influenzer könnten sich mit Infostand vor Schulen stellen und dafür werben. Schön provokant, aber auch wenn die die Polizei rufen, können die nichts machen.
Auch daran ist ja NICHTS verwerflich. Auch wenn die Unternehmen und der Staat es sicher nicht gut fänden, wenn das zur Mode würde.
Noch weniger Arbeitnehmer, noch mehr Macht für die verbleibenden Arbeitssuchenden.
All das ist aber relativ, da in 20-30 Jahren zur Technologischen Singularität eh nur noch evtl. 1% oder weniger in Politik, Kunst und Wissenschaft arbeiten werden...
Gen. Beta wird vermutlich zum großen Teil nie arbeiten. Und das ist gut so. Auch in der Wissenschaft arbeiten dann nur die besten der Besten mit IQ von evtl. 170, 180...
Sogar die Sparkasse wirbt auf einer Webseite für den Frugalismus. Auch wenn die etwas konservativer von 40 statt 30 ausgehen.
Ray Kurzweil ist Chef-Entwickler bei Google, und sieht das genau so...
Was mich persönlich am meisten interessiert ist die Einschränkung von KI-generierter Kunst, denn das finde ich wirklich bodenlos; das zerstört für mich das Fortbestehen von Kultur, und ich würde mir wünschen, dass es in Zukunft Wege gibt die Verwendung von AI zur Erstellung von Kunst zu unterbinden.
Zumal ich es auf verbraucherfreundlich nicht okay finde, dass man einen Opt-Out und keinen Opt-In verwenden muss.
Generell AI zu kommerzialisieren halte ich für keine Person für eine gute Idee
Ich benutze für mein Studium die KI Von Google (um Begrifflichkeiten, Zusammenhänge oder Unterschiede mir erklären zu lassen) hab mir aber in meine Notizen nur für den Fall der Fälle schon mal markiert dass dieser Absatz von dieser KI stammt um wenn ich darauf zurückgreife entweder die Texte umformulieren oder noch mal in der Fachliteratur nachschlagen kann
Du nutzt eine KI um dir Fakten näher zu bringen? Ist dir das nicht viel zu heikel, dass die dir da Quark erzählt, den du nicht bemerkst?
Danke für die Info
Danke für die Info, Aufklärung. Lg 😮
Hallo Herr Solmecke, mit dieser Videoinformation über diesem AI Mißbrauch könnte man mal einen SI-FI-Horrorfilm inszenieren. Wie Michael Chritchton,s WESTWORLD 😮
Gibt es doch schon: Terminator
@@rotebeete7453Nur mit dem cineastischen Unterschied, daß Michael Chrichton WESTWORLD schon 1972 herausbrachte und James Camaron TERMINATOR ein Jahrzehnt später 1984 inszenierte.
Schön, wenn der Regenschirmstiel mitten durch den Hals geht.
Und da soll K.I. täuschend echt sein?
Auch hier wieder: SELBER DENKEN, KRITISCH SEIN und SELBER RECHERCHIEREN.
Der Fehler liegt, wie immer, im Detail.
Denn die Wirklichkeit lässt sich nicht perfekt simulieren.
Ich find die KI generierten Thumbnails die jetzt seit einiger Zeit auf den Videos sind, nicht sehr gut umgesetzt. Sieht irgendwie extrem unnatürlich und unprofessionell aus. Wenn man AI trainiert kann man aber viel bessere Ergebnisse erzielen. Nun was sagt eigentlich die EU für Models die man selber trainiert? Gibt ja zum Glück auch noch Open Source tools.
Kann AI Emeli meine Einfahrt mit der Rüttelplatte verdichten?
Nein?
Dann habe ich kein Interesse.
Ich habe schon Sticker machen lassen. Für Kundendaten würde es Auftragsdatenverarbeitungsverträge mit den KI Anbietern geben.
Alles ist möglich, man muss es nur in den richtigen Rahmen quetschen.
Ki = Sicherheitsrisiko❤
Internet = Sicherheitsrisiko
Menschen = Sicherheitsrisiko
@@MegaManNeo Du bist schon nicht der hellste oder?
@@ginko-1163 Sprach ein mir Fremder aus dem Netz, der meint, es besser zu wissen und mich direkt beleidigt.
über 2min Werbung 😢
Sponsorblock hilft.
Der AI Act scheint schon echt gut gemacht zu sein, chapeau, EU.
@@Alepfi5599 Ich bin Deiner Meinung und glaube auch dass es im Grunde ganz gut ist. Bisschen schade ist, dass es noch so lang in der Umsetzung braucht. Denn es gibt ja auch hier schon Kommentare die behaupten wir würden bürokratisch am Fortschritt gebremst. Bei einer schnelleren Umsetzung könnte man auch schneller deregulieren falls Teile wirklich unpraktikabel sind...
Ist ok. Hängt letztendlich stark davon ab wie es umgesetzt wird. Sowas wie "neutrale Datensätze" kann von nutzlos bis KI wird quasi illegal reichen.
@@br0sys Ich halte den AI Act ebenfalls für einen guten Versuch, mögliche höchst knifflige Probleme einer neuen Technologie zu addressieren, bevor sie eskalieren. Würde mir ebenfalls eine schnellere Vorgehensweise wünschen, da (angesichts der sich rasant weiterentwickelnden Sachlage) Nachjustierungen sicher nötig sein werden. Frage mich allerdings auch, wie effektiv die Regelungen sein werden, solange sie nur Europa betreffen. (Das ist, glaube ich, die Hauptsorge der "Bremst den Fortschritt nicht"-Fraktion - dass ein als "regulierungswütig" empfundenes Europa im internationalen Forschungswettstreit abgehängt wird.) Ist aber ein enorm schwieriges Thema, zu dem ich ehrlich gesagt keine realistische globale Lösung sehe. Insofern ist der Ansatz, wenigstens in unserem eigenen Umfeld vernünftige Grenzsetzungen zu finden, sicher nicht der Schlechteste. :)
Eine KI, die die Personen nach Qualitäten einstellt, hm wie soll das mit der Frauenquote funktionieren, dh die KI müsste mit Daten gefüllt werden die das eine Geschlecht bevorzugt, was aber theoretisch illegal wäre, aber dann doch wieder nicht 🤯
Es hat sich gezeigt, wenn Menschen wirklich nach Qualitäten eingestellt werden, fällt die Frauenquote eh weg, da das Verhältnis ganz natürlich annähernd die Hälfte erreicht.
@@NaanhanyrazzuQuelle ?
@@Naanhanyrazzu wie soll das funktionieren, wenn die Auswahl in den verschiedenen Bereichen nicht ausgeglichen ist, dh wenn in einem Bereich 80% oder mehr dies ein bestimmtes Geschlecht studiert, dann ist die Auswahl der Bewerber geringer und das wird ja explizit bei Quoten ignoriert. Daher kann dies doch automatisch nicht ausgeglichen werden?
Bei uns an der Uni frag ich die Studenten immer, warum wir nicht unseren eigenen KI Chat bauen. Bei uns am Institut sind Fachleute für KI und auch ich Entwickle KI's lol. Wir arbeiten mit Patientendaten, was das ganze Microsoft eing eh kompliziert macht. Die meisten nutzen Linux bei uns. Beschde!
Gerade im Bereich Chat GPT gibt es doch unzählige Anbieter von verschiedenen GPTs zu verschiedenen Anwendungsbereichen. Aber alle basieren auf ChatGPT. Problematisch finde ich auch das Analysieren von Dateien (Grafik und Text)... dann sind ja die Dateien öffentlich. Wie sieht es da eigentlich mit der DSGVO aus?
@@nico1970real im medizinischen Bereich sollte man das aber nicht nutzen, da man aus Unwissenheit Gefahr läuft Dummheiten zu machen. Das in die Ärzte oder medizinisches Personal zu bekommen ist nicht leicht. Ein Student meinte auf die Frage, warum man aus dem Krankenhaus Informationssystem keine Daten in Chat GPT laden darf: "Warum kann ich da Chat GPT nicht nutzen?".
Weil du dann in den Knast kommst, war meine Antwort.
@@medical-informatics Ja, ich sehe die KI auch mehr als personelle Ergänzung und nicht als Ersatz.
@@nico1970real ja, seh2 ich auch so. Ich würde es im Krankenhaus aber verbieten bzw. ...nee, für alle ausser man arbeitet nicht mit Patientendaten (Softwareentwickler usw).
@@medical-informatics ein gesicherte Intranet wäre nötig. Lieber die Personalstruktur verschlanken als aufblähen. Für die dauerhafte und sichere Überwachung der KI Systeme braucht man ja dann auch wieder sogenanntes Fachpersonal.
Bei meiner Mutter im Altenheim werden die Dokumentationen immer noch handschriftlich und analog erfasst und verarbeitet. Ich hab im gleichen Heim 1990 Altenpflege gelernt und schon damals gezeigt, wie es besser und einfacher ginge... Es hat sich auch in 35 Jahren absolut nix getan. Gesundheitspflege und KI passen erst Recht nicht zusammen. Aber das ist nur meine subjektive Meinung.
Ich nutze die KI teilweise im Grafik-Bereich. In dem Augenblick, wo ich etwas Eigenes mache oder hinzufüge ist das Endprodukt wieder urheberrechtlich mein geistiges Eigentum und muß nicht mehr als KI gekennzeichnet werden oder?
Erklärt er ab 16:24. Wie immer bei Rechtsfragen: es kommt darauf an.... 🙂
Danke für das Video. Aber bei Ihnen merkt man sofort, wenn Sie etwas verkaufen wollen (schmatz). Finds aber witzig 🙂
Axel Voss ist so 1 .... na ihr kennt den Rest
Also auf den KI generierten Vorschaubildern, siehst du schon son bisschen wie ein psychopathischer Android aus 😬🤷♀️
Ich werde da nix kennzeichnen. Soll das doch jemand erstmal nachweisen.
Wenn #Soro erstmal Online ist, dann gibt es kein halten mehr.
Ich freue mich auf K.I.
Trash passt gut zu dir als Name.
@@ginko-1163
Dein Name passt auch zu Dir.
Eine neue Technologie existiert.
EU: Lasst es soviel regulieren, dass niemand auf die Idee kommt seine Firma für die Technologie in der EU zu gründen.
Die EU erfindet den geschriebenen Satz und der Rest der Welt die nötigen Buchstaben und Satzzeichen. Schon im Aufbau stellen wir uns selbst ein Bein und Andere freut es. Aber dieses Problem ist ja schon seit Jahrzehnten bekannt und wird immer mehr reglementiert und bürokratisiert. Die EU behindert sich beim Fortschritt selber.
Wie die Videos inzwischen vollgepumpt sind mit Werbung. Früher war der Kanal echt mal gut. Direkt mal ein Daumen runter.
Wo ist ein Video über die Einsetzung von Friedensrichter?
Wo ist ein Video über Bad Qeynhausen?
Ich glaub, in Deutschland sind wir schon IT technisch abgehängt, da ist der Zug schon abgefahren xD
Ich bin dafür das wir Ai schreiben aber Ki sagen weil Ai scheiße klingt und Ki Scheiße aussieht.
Yes Sir
@@DeeplyDivided ich nicht
Wo ist ein Video über die Schülerin in Ripnitz-Dammgarten?
Wo ist ein Video über Mannheim?
Dies ist nicht die Suchleiste. Bitte den Text in die Suchleiste eingeben für Videos über Mannheim.
Ein gewaltiger Schritt in die falsche Richtung
Ich brauche das Video gar nicht schauen, man ist ganz Stolz, dass man der Erste ist, der neue Technologie reguliert! Datenschutz über Alles, über Strafverfolgung, über Gesundheit, über Fortschritt... Man wundert sich nicht ernsthaft, dass der Fortschritt um Europa, aber nicht in Europa stattfindet?
China, USA usw. suchen zu erst nach dem Nutzen! In Europa ist man noch Stolz darauf zu erst an die Bedenken zu gehen 👍
Nicht nur Datenschutz über alles! Der Gottverdammte Mammon wird ja auch dauernd über alles gestellt!!!
Die Unternehmen haben offen gesagt auf ein erstes KI-Gesetz - nebst den Prinzipien, denen sich Computer Scientists sowieso verschrieben haben sollten … - gewartet. Es war schon lange abzusehen, dass irgendwo ein Gesetz mal kommt. Wo wir der Vorreiter sind, werden die anderen Länder - wie unsere Völkerstrafrechtsrechtsprechung in DE - übernehmen. Daher: Nichts Neues … Diese Kennzeichnungspflicht muss auf jeden Fall her. Das ist das bare Minimum.
Dann wandern Sie doch in die USA aus anstatt hier rumzumeckern. Wenn Sie dann dort wegen eines KI-Modells mit antrainiertem Bias verhaften werden und von einem KI-Gericht zu x-Jahren Gefängnis verurteilt werden, dann, ja dann fangen auch SIE an ihr Gehirn zu benutzen.
Tja, vielleicht würde es sich doch lohnen, das Video zu gucken. 🥴
Über den Nutzen neuer Technologien machen sich gewinnstrebende Unternehmer genug Gedanken, da würde ich mir keine Sorgen machen. Sorgen sollte man sich in der Tat eher darüber machen, ob und wann Menschen unter den Auswüchsen einer neuen Technologie zu leiden haben, denn daran denken Unternehmen eher weniger. Den "Radium-Girls", die in den Zwanzigern in den von Ihnen so gepriesenen USA an Strahlenvergiftung starben, nachdem ihre Arbeitgeber empfohlen hatten, sie könnten die leuchtende Substanz, die sie auf Uhrblätter pinselten, durchaus auch zur Verschönerung ihrer Fingernägel, Augenbrauen und Zähne einsetzen, hätte eine bessere Regulierung der damals neuen Technologie wahrscheinlich das Leben gerettet. Medikamente würden Sie auch nicht ohne solide wissenschaftliche Tests auf dem Markt sehen wollen, oder?
Ich finde es krass, dass ich mir von jeder Frau von der auch nur ein Foto habe, Nacktbilder generieren lassen kann.
Da sag noch mal einer KI sei was Schlechtes.