Kennen Sie die firma Reilhofer ? Die macht das im Prüfstandsbereich. Wird meistens im getriebetests genutzt. Nix neues hies damals halt nicht ki. Körperschall sensoren die halt eine daten in eine db einfügen wo versucht wird mit algorithm Resonanzen zu vermeiden
Diese Firma im Speziellen kenne ich nicht, aber ich weiß, dass ein Kollege von mir vor 20 Jahren an Schallanalysen von Getrieben von Windturbinen gearbeitet hat. Allerdings ist das im Video gezeigte Vorgehen deutlich anders, holistischer.
@@JoernLoviscach das man schwer an Daten kommt finde ich eine gute Erwähnung, die Auswertung wird eigentlich einfacher da manheute viele werkzeuge dafür hat , wobei ich zum Beispiel Einfall mitgekriegt habe wo ing. mit Excel messfehler von einer ein prüfstand software gefunden hat ,mich wundert es nachhinein das ich im testcell Umfeld nie die Software mathematica gesehen habe
Danke für das Video Herr Loviscach, der Versuch mit der KI-Stimme ist interessant, allerdings kein Vergleich. Es fehlt z.B. das subtile Schmunzeln Ihrer Stimmlage an bestimmten Stellen, wenn Sie wissen was gemeint ist. Man kann nicht deuten wie die Vortragende selbst zum Thema steht.
Die war selbst gemacht. Oder wieder erfunden, weil es ja irgendwo schon "alles" gibt. loss = ((2.0 - alpha) * torch.square(y_true - y_pred_mean) + alpha * torch.square(deviation) ) / deviation**alpha Dabei steigt alpha über die Dauer des Trainings linear von 0,02 bis 1,98, damit erst die Mittelwerte gelernt werden. Und die Loss-Werte werden zum Vergleich verschiedener alpha später noch umgerechnet.
@@JoernLoviscach Ja stimmt, was mich nur irritiert ist, dass der zweite Term (alpha * torch.square(deviation) ) / deviation**alpha) nicht vom y_pred_mean abhängt, weil ich will ja nur eine hohe Unsicherheit vorhersagen wenn auch torch.square(y_true - y_pred_mean) groß ist. Ich hätte also eher alpha * torch.square(y_true-y_pred_mean) ) / deviation**alpha erwartet. Ohne das optimiert sich die deviation doch automatisch zu 0, da das den Loss minimiert.
Das Langwierigste war, die Sprachsynthese vorab durchzuhören, ob etwas komisch ausgesprochen oder komisch betont wird. "Ypsilon" musste ich ausbuchstabieren und an einigen Stellen die Betonung mit GROSSSCHRIFT klären. Halbe Stunde.
Das ist schon wirklich beeindruckend, ein wenig beängstigend aber auch. 😅 Ich finde es an einigen Stellen etwas schade, dass die KI-Präsentatorin vor dem Inhalt angezeigt wird. Mag vllt nicht immer so dramatisch sein, was den Inhalt angeht, aber es stört schon ein wenig. Gibt es die möglichkeit, die Präsentation in einem kleineren Bereich darzustellen und die KI-Präsentatorin fest daneben? 😊 Auch merke ich, dass meine Aufmerksamkeitsspanne nicht so groß ist, wie bei Ihnen 😅 Sie klingt noch ein wenig holprig bzw. flach, aber das wird.
@@JoernLoviscacher meint wahrscheinlich diese vom Ton her sehr "scharfen" Übergänge/Pausen zwischen den Sätzen (Neben- und Hauptsätze). Manchmal ist es auch als "Einatmen" zu interpretieren.
@@JoernLoviscach Für mich ist das immer noch zur abgehakt und unrund - ab und zu passt es gut - aber irgendwie bin ich, immer noch, nach kurzer Zeit genervt. Es ist schon erstaunlich was so geht und ich nutze auch fleißtig llm. Wie bei Suno. Die ersten KI-Lieder waren lustig und gut, jetzt find ich es nur noch nervig. Mal sehen ob die Modelle besser werden, oder ich mich daran gewöhne (n muss)
Kennen Sie die firma Reilhofer ? Die macht das im Prüfstandsbereich. Wird meistens im getriebetests genutzt. Nix neues hies damals halt nicht ki. Körperschall sensoren die halt eine daten in eine db einfügen wo versucht wird mit algorithm Resonanzen zu vermeiden
Diese Firma im Speziellen kenne ich nicht, aber ich weiß, dass ein Kollege von mir vor 20 Jahren an Schallanalysen von Getrieben von Windturbinen gearbeitet hat. Allerdings ist das im Video gezeigte Vorgehen deutlich anders, holistischer.
@@JoernLoviscach das man schwer an Daten kommt finde ich eine gute Erwähnung, die Auswertung wird eigentlich einfacher da manheute viele werkzeuge dafür hat , wobei ich zum Beispiel Einfall mitgekriegt habe wo ing. mit Excel messfehler von einer ein prüfstand software gefunden hat ,mich wundert es nachhinein das ich im testcell Umfeld nie die Software mathematica gesehen habe
Mathematica hat halt nicht das Ökosystem der Anbindungen an Testhardware, an µC und an branchenspezifische Sachen.
Spannende Darstellung eines spannenden Themas.
So kann kann das klappen mit den synthetischen Stimmen/ Personen in Videos 👍
Einfach der coolste Professor
Danke für das Video Herr Loviscach, der Versuch mit der KI-Stimme ist interessant, allerdings kein Vergleich.
Es fehlt z.B. das subtile Schmunzeln Ihrer Stimmlage an bestimmten Stellen, wenn Sie wissen was gemeint ist. Man kann nicht deuten wie die Vortragende selbst zum Thema steht.
Gibts da ne Quelle für die Unsicherheitslossfunktion. Hatte mich damit auch mal auseinander gesetzt. Danke
Die war selbst gemacht. Oder wieder erfunden, weil es ja irgendwo schon "alles" gibt.
loss = ((2.0 - alpha) * torch.square(y_true - y_pred_mean) + alpha * torch.square(deviation) ) / deviation**alpha
Dabei steigt alpha über die Dauer des Trainings linear von 0,02 bis 1,98, damit erst die Mittelwerte gelernt werden. Und die Loss-Werte werden zum Vergleich verschiedener alpha später noch umgerechnet.
@@JoernLoviscach vielen Dank, und ich schätze die devistion ist torch.abs(true-pred)
Oh, deviation ist die Unsicherheitsschätzung aus dem Netz.
@@JoernLoviscach Ja stimmt, was mich nur irritiert ist, dass der zweite Term (alpha * torch.square(deviation) ) / deviation**alpha) nicht vom y_pred_mean abhängt, weil ich will ja nur eine hohe Unsicherheit vorhersagen wenn auch torch.square(y_true - y_pred_mean) groß ist. Ich hätte also eher alpha * torch.square(y_true-y_pred_mean) ) / deviation**alpha erwartet. Ohne das optimiert sich die deviation doch automatisch zu 0, da das den Loss minimiert.
Der Trick ist, sich anzugucken, wann der Loss minimal wird.
Wie lange hat es gedauert, bis das Ergebnis zufrieden stellend war?
Das Langwierigste war, die Sprachsynthese vorab durchzuhören, ob etwas komisch ausgesprochen oder komisch betont wird. "Ypsilon" musste ich ausbuchstabieren und an einigen Stellen die Betonung mit GROSSSCHRIFT klären. Halbe Stunde.
Das ist schon wirklich beeindruckend, ein wenig beängstigend aber auch. 😅
Ich finde es an einigen Stellen etwas schade, dass die KI-Präsentatorin vor dem Inhalt angezeigt wird. Mag vllt nicht immer so dramatisch sein, was den Inhalt angeht, aber es stört schon ein wenig. Gibt es die möglichkeit, die Präsentation in einem kleineren Bereich darzustellen und die KI-Präsentatorin fest daneben? 😊
Auch merke ich, dass meine Aufmerksamkeitsspanne nicht so groß ist, wie bei Ihnen 😅 Sie klingt noch ein wenig holprig bzw. flach, aber das wird.
Man kann die ganzen Bestandteile einschließlich Figur beliebig als geometrische Objekte durch die Gegend schieben.
@@JoernLoviscach Ahh, ok, dachte, das wäre auch irgendwie KI-mäßig bestimmt worden. 😊 Danke für die Antwort.
Stop nach einer Minute, morgen mit mehr Geduld probier ich es noch einmal. Aber eben machen mich diese Pausen fertig
Pausen?
@@JoernLoviscacher meint wahrscheinlich diese vom Ton her sehr "scharfen" Übergänge/Pausen zwischen den Sätzen (Neben- und Hauptsätze).
Manchmal ist es auch als "Einatmen" zu interpretieren.
@@JoernLoviscach Für mich ist das immer noch zur abgehakt und unrund - ab und zu passt es gut - aber irgendwie bin ich, immer noch, nach kurzer Zeit genervt. Es ist schon erstaunlich was so geht und ich nutze auch fleißtig llm.
Wie bei Suno. Die ersten KI-Lieder waren lustig und gut, jetzt find ich es nur noch nervig. Mal sehen ob die Modelle besser werden, oder ich mich daran gewöhne (n muss)
Gibt's das auch in Österreichisch?
Noch nicht. Noch.