@@EberhardWolffIch fände es zum einen spannend vom Podium zu erfahren, welche KIs ihr konkret für was benutzt. Also so wie Stephan "Cursor" genannt hat. Und zum anderen fände ich es super spannend, wenn ihr die Entwicklung diskutierend begleitet und neue AI Entwicklungen einordnet. Wie André gesagt hat, haben wir vieles noch nicht verstanden, das wird sich sicher ändern und bestimmt werden sich auch Meinungen und Ansichten ändern. In jedem Fall war die Bandbreite eurer Diskussion sehr interessant, auch weil ihr alle unterschiedliche Hintergründe habt. Vielen Dank!
Ein Thema was ich noch interessieren würde wäre, welche KI-Tools gibt es und für welchen Zweck setzt ihr sie ein? Es wurde ja im Video erwähnt, dass ihr diverse Tools einsetzt, je nachdem was ihr gerade für Anforderungen habt. Spannend wäre dabei auch nach welchen Gruppen man diese KI-Tools einteilen kann.
12:58 hauptproblem in der softwareentwicklung. 16:48 python und ki, monokultur 21:11 software soll probleme lösen 27:59 ki löst softwareaufgaben, unternehmer löst probleme 35:11 ki ist nicht nur ein hype. Erfordert anpassung 36:40 wogegen tritt genAI bzw. ki an? 42:15 46:31 mensch madchine interaktion: tests und qualitätskriterien. Mensch kann die qualitätskriterien und die Tests kontrollieren. 51:14 Tests: entweder man will mit Tests requirements abdecken oder Regressionen vermeiden. 55:33 Ki-generierter code basiert auf git hub und stack overflow (qualitativ mittelmässig?) 56:30 KI und ai schlägt wegen den Tests später die in 55:33 erwähnte qualität? 56:57 wer das problem versteht kann gute tests schreiben. Ki schreibt gute und viele tests. Kommen entwickler da zukünftig nich hinterher? 59:12 Tests mit behavior driven development 1:03:11 Gen AI kann sehr gut python
Wie Ralf sagte zum Thema "unlesbare" Tests, ich denke aktuell hängt immer noch viel im Prompting (Systemprompt), wenn man der KI sagt sie soll das sicher machen, kommt anderer Code raus - erster einfacher Schritt wären Code PR Reviews mit KI deren Systemprompt auf Sicherheit hinweist.
wenn die KI nochmal drueber schaut, kann es auf jeden Fall besser werden. Durch den Knowledge-Cutoff verwendet die KI nedoch veraltete Libraries. Das muss wieder mit anderen Mechanismen abgefangen werden. Es reicht nicht einfach die Version hoch zu drehen, wenn die neue Version breaking Changes enthaelt, die die KI nicht kennt.
Ich hatte mit zunehmender Dauer der Diskussion auch zunehmend Probleme diese ernstzunehmen. Ich hab mir mal den Spass gemacht, ollama3.2 die ausgestrahlte Kompetenz dieser Diskussion bewerten zu lassen - basierend auf der aus dem Transcript extrahierten Wortfrequenz folgender Worte: irgendwie: 63 irgendwelche: 10 irgendwann: 6 vielleicht: 42 wahrscheinlich: 9 eher: 12 eigentlich: 18 halt: 182 glaub: 76 äh: 186 Ergebnis: 6/10. "The tone appears to be relatively casual, which could lead to oversimplification or superficiality."
Die Idee mit dem Transkript hat mich jetzt auch beschäftigt. Hier die Meinung von GPT-o1: Die Diskussionsrunde vermittelt insgesamt ein hohes Niveau an Expertise. - **Technische Tiefe:** Die Teilnehmenden kennen aktuelle KI-Tools (LLMs, Fine Tuning, Edge-Modelle) und diskutieren technische Aspekte wie Codegenerierung, Testabdeckung oder Dokumentationsfragen. - **Praxiserfahrung:** Sie haben offensichtlich KI-Tools in realen Projekten angewendet und können konkrete Beispiele (z.B. Copilot, Curser, eigenentwickelte KI-Systeme) nennen. Das spricht für echte Erfahrung statt rein theoretischem Wissen. - **Reflexion**: In ihren Beiträgen geht es nicht nur um „Was kann KI?“, sondern auch um Grenzen, Verantwortungsbereiche, erforderliche Skills und Konsequenzen für Junior- und Senior-Entwickelnde. - **Integrierte Sicht:** Neben dem technischen Teil beleuchten sie organisatorische und menschliche Faktoren (z.B. Veränderungsresistenz im Team, neue Rollenverteilung). Insgesamt zeigen sie damit fundiertes Know-how, praktischen Blick und ein gutes Gespür für den Stand der Technik sowie künftige Entwicklungen. **100% Sicherheit** Danke für den Tipp! 😀 Bei Deiner Ollama Version - welches Modell hast Du genau genutzt? Welche Größe?
Hat mir sehr viel Spass gemacht!
Super spannendes Thema! Danke für eure wertvolle Diskussion, die wie ich finde unbedingt fortgesetzt werden sollte.
@@StefanieJarantowski-Schmidt Danke für das Feedback! Hast Du eine Idee für einen Aufhänger oder Thema für die Fortsetzung?
@@EberhardWolffIch fände es zum einen spannend vom Podium zu erfahren, welche KIs ihr konkret für was benutzt. Also so wie Stephan "Cursor" genannt hat. Und zum anderen fände ich es super spannend, wenn ihr die Entwicklung diskutierend begleitet und neue AI Entwicklungen einordnet. Wie André gesagt hat, haben wir vieles noch nicht verstanden, das wird sich sicher ändern und bestimmt werden sich auch Meinungen und Ansichten ändern. In jedem Fall war die Bandbreite eurer Diskussion sehr interessant, auch weil ihr alle unterschiedliche Hintergründe habt. Vielen Dank!
@ Danke für die Ideen! 🙇♂️
@@EberhardWolff 🙂
Ein Thema was ich noch interessieren würde wäre, welche KI-Tools gibt es und für welchen Zweck setzt ihr sie ein? Es wurde ja im Video erwähnt, dass ihr diverse Tools einsetzt, je nachdem was ihr gerade für Anforderungen habt. Spannend wäre dabei auch nach welchen Gruppen man diese KI-Tools einteilen kann.
12:58 hauptproblem in der softwareentwicklung.
16:48 python und ki, monokultur
21:11 software soll probleme lösen
27:59 ki löst softwareaufgaben, unternehmer löst probleme
35:11 ki ist nicht nur ein hype. Erfordert anpassung
36:40 wogegen tritt genAI bzw. ki an? 42:15
46:31 mensch madchine interaktion: tests und qualitätskriterien. Mensch kann die qualitätskriterien und die Tests kontrollieren. 51:14 Tests: entweder man will mit Tests requirements abdecken oder Regressionen vermeiden.
55:33 Ki-generierter code basiert auf git hub und stack overflow (qualitativ mittelmässig?)
56:30 KI und ai schlägt wegen den Tests später die in 55:33 erwähnte qualität?
56:57 wer das problem versteht kann gute tests schreiben. Ki schreibt gute und viele tests. Kommen entwickler da zukünftig nich hinterher?
59:12 Tests mit behavior driven development
1:03:11 Gen AI kann sehr gut python
15:26 Sicherheitsgewinn im Code wäre wünschenswert, aber wird der Code definitiv sicherer durch LLMs?
Aktuell ist das Gegenteil der Fall: Der Code wird weniger sicher, aber Entwickler:innen denken, er sei sicherer. Siehe arxiv.org/abs/2211.03622
Wie Ralf sagte zum Thema "unlesbare" Tests, ich denke aktuell hängt immer noch viel im Prompting (Systemprompt), wenn man der KI sagt sie soll das sicher machen, kommt anderer Code raus - erster einfacher Schritt wären Code PR Reviews mit KI deren Systemprompt auf Sicherheit hinweist.
wenn die KI nochmal drueber schaut, kann es auf jeden Fall besser werden. Durch den Knowledge-Cutoff verwendet die KI nedoch veraltete Libraries. Das muss wieder mit anderen Mechanismen abgefangen werden. Es reicht nicht einfach die Version hoch zu drehen, wenn die neue Version breaking Changes enthaelt, die die KI nicht kennt.
@ Die KI wird behaupten, dass der Code „sicherer“ ist. Gibt es Belege, dass das tatsächlich so ist?
@@ralfdmueller Den Punkt fand ich gestern besonders spannend, der Impact von Cutoff war mir in der Form nicht bewusst.
Ich hatte mit zunehmender Dauer der Diskussion auch zunehmend Probleme diese ernstzunehmen.
Ich hab mir mal den Spass gemacht, ollama3.2 die ausgestrahlte Kompetenz dieser Diskussion bewerten zu lassen - basierend auf der aus dem Transcript extrahierten Wortfrequenz folgender Worte:
irgendwie: 63
irgendwelche: 10
irgendwann: 6
vielleicht: 42
wahrscheinlich: 9
eher: 12
eigentlich: 18
halt: 182
glaub: 76
äh: 186
Ergebnis: 6/10.
"The tone appears to be relatively casual, which could lead to oversimplification or superficiality."
Danke für das Feedback! Ist das besser oder schlechter als andere Episoden?
Immerhin war es anscheinend unterhaltsam 🙂
"Casual" passt ja ganz gut.
Die Idee mit dem Transkript hat mich jetzt auch beschäftigt. Hier die Meinung von GPT-o1:
Die Diskussionsrunde vermittelt insgesamt ein hohes Niveau an Expertise.
- **Technische Tiefe:** Die Teilnehmenden kennen aktuelle KI-Tools (LLMs, Fine Tuning, Edge-Modelle) und diskutieren technische Aspekte wie Codegenerierung, Testabdeckung oder Dokumentationsfragen.
- **Praxiserfahrung:** Sie haben offensichtlich KI-Tools in realen Projekten angewendet und können konkrete Beispiele (z.B. Copilot, Curser, eigenentwickelte KI-Systeme) nennen. Das spricht für echte Erfahrung statt rein theoretischem Wissen.
- **Reflexion**: In ihren Beiträgen geht es nicht nur um „Was kann KI?“, sondern auch um Grenzen, Verantwortungsbereiche, erforderliche Skills und Konsequenzen für Junior- und Senior-Entwickelnde.
- **Integrierte Sicht:** Neben dem technischen Teil beleuchten sie organisatorische und menschliche Faktoren (z.B. Veränderungsresistenz im Team, neue Rollenverteilung).
Insgesamt zeigen sie damit fundiertes Know-how, praktischen Blick und ein gutes Gespür für den Stand der Technik sowie künftige Entwicklungen.
**100% Sicherheit**
Danke für den Tipp! 😀
Bei Deiner Ollama Version - welches Modell hast Du genau genutzt? Welche Größe?
@@ralfdmueller Niemand hat gelacht in Gegensatz zum letzten Mal.
@@EberhardWolff Ich kann ja mal lachen.