90% Daten, 10% Magie: Wie ML-Projekte wirklich laufen

Shownotes

In dieser Folge ziehen wir den Vorhang zurück: Was steckt wirklich hinter erfolgreichen Machine Learning-Projekten? Wir sprechen offen darüber, warum 90 Prozent der Arbeit im Datenaufbereiten stecken, und wie wenig Zeit am Ende tatsächlich für das Modelltraining bleibt. Wir teilen unsere überraschendsten Learnings, räumen mit Mythen rund um KI und LLMs auf und erklären, warum Unternehmen bei ihrem ersten ML-Projekt auf die Basics setzen sollten. Wer wissen will, woran ML-Projekte wirklich scheitern (und was sie erfolgreich macht), ist hier genau richtig. Hört rein, wenn ihr erfahren wollt, was euch bei eurem eigenen ML-Abenteuer erwartet - weniger Magie, mehr Handwerk!

Haben Sie Feedback oder Anregungen für kommende Folgen? Wir freuen uns über eine Nachricht!

kuenstlichklug@gmail.com

Hugging Face

https://huggingface.co/

MLflow

https://mlflow.org/

Elements of AI

https://course.elementsofai.com/de/

You Look Like a Thing and I Love You

https://www.amazon.de/You-Look-Like-Thing-Love/dp/0316525243/

DIVISIO GmbH

https://divis.io/

afritz consulting GmbH

https://afritz.co/

Transkript anzeigen

00:00:03: Neunzig Prozent sind Datenputzen, fünf Prozent sind Modelltrainieren.

00:00:08: Fünf Prozent sind Erklären worum fümmenneinzig Prozent Genauigkeit nicht reicht.

00:00:13: Heute ziehen wir den Vorhang zurück und zeigen euch wie ML-Projekte wirklich ablaufen.

00:00:18: Wir teilen unsere Erfahrungen überraschendsten Learnings und Verraten was wir Unternehmen vor ihr im ersten ML Projekt raten

00:00:25: würden.

00:00:26: Herzlich willkommen zu einer neuen Folge von Pünztlich Glück!

00:00:32: dafür mit Fakten und Begeisterung von Afritz, Consulting & Divisio.

00:00:36: Aus dem vorweihnachtlichen Köln begrüßen euch Andreas und Christoph!

00:00:41: Hi Andreas!

00:00:43: Hallo liebe Zuhörer und Zuschauer!

00:00:44: Und herzlich willkommen zu einer neuen Ausgabe vom künstlich klug, dem KI-Podcast.

00:00:49: Heute mal nicht zu KI, KI?

00:00:53: Was wir heute alle kennen als Chatship Tee auch wenn das nicht stimmt sondern ML Machine Learning.

00:00:59: Genau.

00:01:00: vielleicht Ordnen wir das gerade mal so grob ein in die Abstufung von KI und LLM, was wir bisher als Begriffe benutzt haben?

00:01:09: Und neuronale Netze.

00:01:10: Wo kommt das in der Schublade?

00:01:12: Genau!

00:01:12: Also man kann sich erstmal die KI als Ganzes vorstellen – und zwar die KI aus der Sicht der Informatik, künstliche Intelligenz, Untergebiete informatik wo wir halt versuchen intelligente Systeme zu bauen und da gehört viel mehr zu, als die meisten Leute denken.

00:01:29: Es gibt ganz unterschiedliche Arten von KI, die wir irgendwann vielleicht auch mal erklären können.

00:01:33: Die aber im Moment gerade nicht so in der Medien vertreten sind.

00:01:37: Schachcomputer zum Beispiel funktioniert ganz anders als ein LLM ist aber auch KI und eine Untergruppe von KI ist das Machine Learning Das maschinelle Lernen wo wir halt keine Intelligenz programmieren, das versucht man bei anderen Sachen.

00:01:51: Man versucht eine Intelligenze wirklich händisch irgendwie zusammenzubauen wie ein Uhrwerk sondern man nimmt einen etwas allgemeineren Algorithmus und Daten und dieser Algorithm kann auf den Daten lernen so nennen wir es zumindest.

00:02:04: und dann kommt am Ende ein System raus wenn alles glatt geht dass eine Lösung für ein Problem erzeugt.

00:02:10: Und unter diesem maschinellen Lernen da gibt's auch wieder ganz viele spannende Sachen gibt es die neuronalen Netze.

00:02:16: Die sind also nur eine Variante davon.

00:02:19: Dann sind wir eigentlich schon beim aktuellen Thema.

00:02:21: Neuronale Netze kann man heutzutage synonym mit Deep Learning nennen, also am Anfang hat man gesagt, Deep Learning ist wenn die neuronalen Netze sehr tief sind.

00:02:30: aber es gibt keine neuronalen Netze mehr die man heute für irgendwas nimmt, die man nicht als Deep Learning bezeichnen würde.

00:02:36: und dann gehen wir ins Deep Learning noch tiefer rein.

00:02:38: da gibt das eine spezielle Unterart der Neuronalnetze Das sind die sogenannten Transformermodelle.

00:02:44: Die haben eine gewisse Architektur Da müssen wir gar nicht drauf eingehen.

00:02:47: Und von den Transformer-Modellen gibt es wieder eine Unterarchitektur, das sind die sogenannten Decoder Only oder GPT Systeme.

00:02:55: Aha!

00:02:55: Da kommt wieder ein ganzes Wort und von diesen GPT-Systemen ist eins ChatGPT.

00:03:00: Wir gehen heute mal wieder ein paar Stufen auf der Leiter hoch zum allgemeinen Machine Learning.

00:03:05: also wie läuft es ab wenn man eine Maschine selber trainieren will?

00:03:10: Oder man hat einen Projekt und guten Dienstleister Wenn ich selber mal was bauen will, um nicht nur eine LLM.

00:03:19: Was sind da so klassische Anwendungsfälle?

00:03:21: Also wo man vielleicht nicht immer so ein Modell aus der Schublade zieht das vielleicht auf Hugging Face oder anderen Plattformen schon da ist und dann vielleicht tatsächlich sich etwas Eigenes antrainieren möchte?

00:03:33: Da sagst du gleich was wichtiges nämlich Hugging face also generell.

00:03:36: es ist so es ist nichts Verwerfliches dabei ChatGPT oder irgendwas zu benutzen.

00:03:41: Wenn es funktioniert, warum nicht?

00:03:43: Da muss man einfach rechnen.

00:03:44: Löhnt sich das preislich und ist das gut genug.

00:03:47: Es ist nicht so dass man sagen muss echtes Machine Learning ist irgendwie schon cooler für dich aber cool bezahlt keine Rechnung.

00:03:55: Dann hast du etwas Wichtiges genannt Hugging

00:03:57: Face.

00:03:58: Hugging face ist eine Plattform für mich ehrlich gesagt eine viel wichtigere Kaiiform als OpenAI Weil Huggingface ist das zu Hause für sogenannte, oder bei Hugging Face gibt es fertige Modelle.

00:04:10: Das heißt der nächste Schritt wenn ich nicht eine fertige API benutze, ist dass sich kucke zum Beispiel auf Hugging face viele andere die sind ja de facto Standard.

00:04:18: Ich kocke auch auf Hugingface, woanders gucke ich gar nicht mehr ob es vielleicht einen KI ein Machine Learning-Modell schon gibt was mein Problem löst.

00:04:25: und man muss nicht selber trainieren da speichere Menge Geld Wenn die Lizenz dieses Modells stimmt.

00:04:30: Und auf Hugginface ist fast alles Open Source, das kann ich oft sogar kostenlos benutzen.

00:04:35: Das raten wir unseren Kunden auch immer und die meisten Sachen, die wir den Leuten empfehlen oder einbauen oder weiter mit Arbeiten basieren auf dem fertigen

00:04:42: Modell.

00:04:44: Aber dann wenn das nicht geht, dann muss sich eventuell ein Modell Silber trainieren.

00:04:49: Genau!

00:04:49: Und da gibt es halt gewisse Gründe.

00:04:51: der Hauptgrund, warum ich einen Modell selber trainiere ist einmal Es gibt keins oder Ich kann's mit einem großen LLM machen.

00:04:57: Die können echt viel heutzutage die Dinger.

00:05:00: Aber ich habe ein Datenschutzproblem unter Umständen oder auch einen Kostenproblem.

00:05:04: Wenn man zum Beispiel Millionen von Ultraschalldaten analysieren möchte, wir haben dann ein System gebaut das Ultraschild-Daten analysiert Dann ist es einfach zu teuer über Chatshipity weil ich die ganzen Token spezalen müsste.

00:05:15: Das kann ich mir gar nicht leisten.

00:05:17: Oder es muss in irgendeiner Fabrikhalle laufen wo ich kein Internet hab Da muss es auch irgendwie reinpassen oder Es muss auf einem sehr langsamer Computer laufen.

00:05:25: und Generell ist es so, wenn ich ein Machine Learning Modell speziell für eine Aufgabe trainiere.

00:05:29: Das viel Energie und kosteneffizienter im Betrieb als ein großes LLM, weil das winzig klein ist.

00:05:37: Also die meisten Sachen, die wir selber trainieren, kann nicht auf dem Laptop trainieren.

00:05:41: Auf dem Ggm in der Firma immer Gaming-Laptops mit einer schönen großen Grafikkarte.

00:05:45: Und sehr oft benutzen wir keine Cloud Server mehr.

00:05:48: Ich lasse es eine halbe Stunde auf dem Schreibtisch laufen, dann wird der Laptob wirklich ein bisschen laut und heiß aber es geht drauf!

00:05:53: Okay.

00:05:53: Bevor wir irgendwie ins Training reingucken, vielleicht mal so der grobe Ablauf.

00:05:59: wenn jemand jetzt an dich ran treten würde und sagen würde Wir brauchen wahrscheinlich irgendwie ein eigenes Modell um beispielsweise sowas wie Ultraschalldaten oder was anderes zu analysieren oder auszuwerten Wie würde man da grundsätzlich vorgehen?

00:06:12: Das erste und jetzt fangen wir mit einer Sache an die wir mindestens zehn oder zwanzig Mal in dieser Folge wiederholen werden.

00:06:18: das ist da.

00:06:20: Das heißt also die Frage Wie baue ich so was?

00:06:23: Die stellt sich erst mal ganz am Ende.

00:06:25: Man sollte natürlich mit dem Fachmann sprechen, der eventuell warnt vor sich das keine Ahnung!

00:06:30: Da gibt es nichts.

00:06:31: aber die meisten Sachen lassen sich heute erstaunlich gut durch Machine Learning lösen wenn die Daten gut sind und man sich genug Zeit dafür nimmt.

00:06:39: Das ist immer eine Kostenrechnung.

00:06:41: Das muss man vorher mal ein bisschen abschätzen ob mir das Geld wert ist.

00:06:46: Wenn ich einen Mitarbeiter habe, der das Problem wunderbar löst und das Machine Learning-Modell allein zu bauen kostet mich ein sechstelligen Betrag, kann es einfach sinnvoll sein, das weiter an Menschen nachzulassen.

00:06:57: Aber abgesehen von der Abwägung, dass man überhaupt mal eine Indikation macht, okay wird es fünfstellig oder sechsstellig?

00:07:04: Wo ich ganz grob, das kann man sehr früh sehen.

00:07:06: Ist die erste Frage wie sieht es mit den Daten aus?

00:07:09: Bevor ich also überhaupt wissen kann welches Modell ich nehmen kann muss ich ja wissen welche Daten da sind weil unterschiedliche Modelle brauchen unterschiedliche Datenmengen Qualitäten.

00:07:18: und insbesondere ist die Frage welches Problem möchte ich lösen?

00:07:21: zum Beispiel möchte ich etwas nur klassifizieren kategorie abc oder möchte ich was markieren?

00:07:28: Oder möchte ich eine heatmap für irgendwas erstellen so hell dunkle großen interessanter Bereich.

00:07:32: Das heißt Der erste Schritt und dann wirst du mir zustimmen, weil es gibt so für jeden IT-Problem.

00:07:38: Das ist erstmal ganz gut rauszufinden was will der Kunde wirklich?

00:07:42: Und in aller Fernis manchmal weiß es der kunde denkt der kund er weiß es weiß es noch nicht.

00:07:48: Dann kann ich auch nur allen empfehlen die sowas machen möchten als Auftrag Geber auch hinzugehen und zu sagen okay man ganz offen ranzugehen dass wir wirklich jetzt mal runter gehen auf die Frage Was müsste das Problem das sich lösen möchte?

00:08:01: Ja, das heißt du gehst eher vom Zielbild aus und überlegst dir was soll am Ende bei rauskommen um dann zu überlegen.

00:08:07: Was bräuchte ich eigentlich an Daten am Anfang?

00:08:11: Um das rauszubekommen.

00:08:12: Genau also wie bei jedem guten IT-Projekt erstmal herausfinden wir es problemwillig lösen.

00:08:18: Mich einarbeiten in die Domäne.

00:08:20: Und dann geht man rückwärts.

00:08:21: Manchmal sind halt Daten da und die Antwort ist dass sind die Daten die haben wir es gibt keine anderen.

00:08:26: Dann muss man versuchen dieses gewünschte Ziel und die Daten so ein bisschen in Übereinkunft zu bringen, um zu schauen okay kriege ich das damit hin?

00:08:33: Und wenn nicht.

00:08:34: So sagen ok wie gehen wir also... Ok wir schaffen nicht wirklich alles was ihr wollt aber was weniger können wir schaffen was ich

00:08:41: will.

00:08:43: Verstanden dass jetzt wie viel Anteil wird sozusagen an so einem Projekt?

00:08:46: häufig Datenaufberatung oder wie groß kann man sich die Rolle davon vorstellen?

00:08:52: Daten

00:08:53: das ist auch.

00:08:54: die wollen dann die Magie sehen, den Zauberstab.

00:08:56: Jetzt holen wir die KI und die löst alles mit Daten zu arbeiten.

00:09:00: Wenn du unglaublich Glück hast sind siebzig Prozent des Projektbudgets oder der Aufwände gehen.

00:09:05: Die Daten können neunzig, fünfneunzig Prozent sein.

00:09:08: Das ist überhaupt nicht glamourös.

00:09:09: also man denkt immer da kommt der Frankenstein und baut das künstliche Gehirn?

00:09:13: Nee!

00:09:13: Also ganz großer Teil wenn man es wirklich mal sauber machen will und das habe ich leider nur bei den hausinternen Projekten wo uns immerhin bekommen.

00:09:21: Das Erste Du definierst dein Ziel.

00:09:25: Wenn du das Ziel hast, dann hast du schon mal eine grobe Idee welche Architekturen so nennt man dass diese Machine Learning Algorithmen welche in Frage kommen können.

00:09:33: Dann weiß man schonmal sehr gut eigentlich welche Art von Daten brauchst.

00:09:37: Klar wenn ich was mit Bildern brauche, brauche ich irgendwie Bilder aber muss sich halt anotieren.

00:09:41: wie muss ich anotiern?

00:09:43: Dann überlegst du dir einen Annotations Guide d.h.

00:09:47: du sprichst mit den Fachleuten und fragst Wie wird anotiert?

00:09:50: Das ist ganz wichtig.

00:09:51: zum Beispiel hatten wir ein Beispiel, wo wir für einen Kunden Teile einer Schiene markieren mussten.

00:09:59: Und die einen Annotatoren haben einen ganz kleinen Teil markiert und die anderen haben so viel anotiert weil für die einen Experten gehörten die Schraubungen von sogenannten Sking-Umisolierstöße, gehörte die Schaubungen zu dem Objekt, das markiert wurde hinzu.

00:10:15: Und zu der anderen haben gesagt ne die Schrauben gehören da nicht dazu, dass in der Mitte gehören dazu.

00:10:19: Das heißt selbst die Fachleute können unterschiedlicher Meinungen sein und das heißt wir uns vorher dafür sorgen, dass sich die Fach leute einig werden.

00:10:27: Das ist schwer, weil die Fach Leute sich einigen werden!

00:10:30: Das heißt man muss also entscheiden welche Daten wollen wir?

00:10:33: Was wollen wir darauf markieren und anotieren?

00:10:35: Weil die Maschine muss ja irgendwas lernen, du musst dir einen Ziel geben jedenfalls beim sogenannten überwachten Lernen und darauf läuft es am Ende meistens hinaus.

00:10:43: Und dann musst du sagen, nach welchen Regeln anotieren wir das.

00:10:46: Das ist richtig viel Zeit!

00:10:47: Das ist überhaupt nicht technisch sondern wie bei vielen IT-Projekten es ist menschliche Koordination die Leute an einen Tisch bringen, dass rausfinden.

00:10:55: Ja also ich verstehe richtig wenn zunehmend beispielsweise schon Ergebnis Paare irgendwie zusammen hat, also das ist der Input.

00:11:03: Das ist der gewünschte Output und das irgendwie vierzehntausendmal dann ist es schon eine gute Datenbasis um damit ein Modell zu trainieren

00:11:11: oder?

00:11:11: Ja wenn man Glück hat.

00:11:13: Wenn alles richtig gemacht wurde dass das Problem entsteht manchmal und das ist sehr traurig wenn Unternehmen schon quasi weiter sind im Verständnis und verstehen wie wichtig Daten sind haben ganz fleißig Daten gesammelt vielleicht sogar schon anotiert.

00:11:26: Wir haben aber vorher niemanden gefragt und haben dann kleinen Fehler drin.

00:11:30: Und sagen, es tut mir furchtbar leid, aber wir können die Arbeit so nicht verwenden.

00:11:33: Wir müssen nochmal anfangen.

00:11:34: Das ist sehr hart.

00:11:36: Meistens gibt's Tricks, dass man das trotzdem noch verwenden kann.

00:11:39: Passiert zum Glück nicht so oft.

00:11:40: Also wenn jemand in so einer Situation ist... Die erste Regel!

00:11:44: Wenn man keinen Fachmann hat, man hat keine Zeit, um mal weiß wie wichtig die Daten sind.

00:11:48: Oh Gott, seit Monaten machen wir das und die Daten werden nicht gespeichert.

00:11:53: wenn man sich es irgendwie von der Menge her bezahlen kann.

00:11:56: Erstmal alles total blind ohne nachzudenken auf einen Haufenwerfen, weil dann geht nichts verloren und dann kann man hinterher.

00:12:02: also wegleschen können wir beim Datenaufbereiten immer und dann wenn's uns ans Anotieren geht die Anotation kann ich ja noch später machen so lange Fachleute noch da sind.

00:12:11: Da kommt es dann nach dem Datenhandbuch.

00:12:13: dann wäre beim nächsten Schritt da muss man überlegen wie anotiere ich?

00:12:16: Manchmal ist das total simpel.

00:12:17: wenn ich zum Beispiel nur Bilder klassifizieren will Dann brauche ich keine Software, dann gebe ich den Leuten die Bilder und sag macht drei Ordner Klasse A klasse B klasse C. Und schieb die Bilder in die passenden Ordnern fertig.

00:12:28: Und manchmal brauche sich spezielle Software wenn ich sehr komplexe Sachen machen will wie zum Beispiel im Straßenverkehr.

00:12:34: kennen wir diese Markiere alle Schilder auch.

00:12:37: Ja okay um das einmal vom Prozess ja vielleicht so ein Stück weit zu Ende zu denken man hat jetzt irgendwie gesagt ok dass ist das Zielbild Das sind unsere Daten, da haben wir jetzt einen Annotations-Guide irgendwie oder haben schon welche anotiert.

00:12:52: Was kommt als nächstes?

00:12:54: Dann läuft es anotieren dann kann man parallel anfangen oder das kann natürlich auch schon vorher machen.

00:13:00: viele der Sachen lassen sich parallelisieren.

00:13:03: Dann muss eine Experte hingehen um mögliche Modellarchitekturen herauszufinden immer vorausgesetzt also ich habe noch nicht rausgefunden dass es bereits ein Modell gibt was mein Problem löst.

00:13:14: wenn ich zum Beispiel einfach gesprochene Sprache in Text umwandeln will, das nennt sich Speech-to-Text.

00:13:20: Dann mache ich das nicht mehr.

00:13:21: da gibt es fertige Modelle für.

00:13:22: Das heißt das muss der Experte auch vorher machen dass man nicht diese sehr kostenaufwendige Datensache macht.

00:13:28: also lassen wir jetzt mal außen vor es gibt kein fertiges Modell das wissen wir.

00:13:31: dann gehe ich parallel hin und dann gibts verschiedene Eskalationen stufen und man sollte immer wie immer so einfach und so dumm wie möglich machen um Geld zu sparen und möglichst viel wieder verwenden.

00:13:42: dann gucke ich, ob es zum Beispiel wenn's kein fertiges Modell gibt.

00:13:45: Aber es gibt vielleicht ein Modell das ein ähnliches Problem löst, dass so ähnlich ist, dass sie sagen kann... Ich kann von diesem Modell zwar nicht wirklich das gelernte verwenden, aber ich kann den Code zum Trainieren verwenden und die Paper lesen um zu verstehen, dass das jemand anders hat.

00:13:59: Neunzig Prozent der Arbeit schon gemacht!

00:14:01: Ich kann sogar den Code übernehmen weil er patchy lizenziert ist.

00:14:05: Das ist eine Softwarelizenz, die sehr viel erlaubt.

00:14:09: Lass ich quasi, dann muss alles was sich dann machen muss ist diesen existierten Code verstehen das wieder zum laufen zu bringen und mit meinen eigenen Daten nochmal neu machen.

00:14:17: Das ist schon aufwendig genug.

00:14:19: dass kann wenn man Glück hat und es ist ein Standardfall kannst einen Tag dauern das kann aber auch zwei Monate dauern wenn ich mich durch dieses... das ist dann meist noch nicht so schöner Code wenn's aus der Forschung kommt bis ich das auseinander klamüsert habe.

00:14:31: wir haben jetzt zb ein superspannendes Paper gefunden ... dass ein Problem für einen Kunden gelöst hat, um Sachen auf Bildern zu erkennen.

00:14:39: Und wir haben uns schon gefreut... weil auch der Code war da aber das Modell nicht.

00:14:43: Da war dann der Grund, dass es das Modelle nicht da war.

00:14:45: Aber der Code ist so fürchterlich, dass wir zwei Wochen gebraucht haben bis das Training angefangen hat zu laufen.

00:14:50: Also das ist manchmal ein bisschen knäffig.

00:14:52: Okay und dann verstanden, dann läuft das Training?

00:14:55: Genau!

00:14:55: Das heißt, das läuft mit vielen Datensätzen einfach durch.

00:14:58: Genau, das kommt dann drauf an wenn ich eine einfache Machine Learning Algorithmus habe, dann dauert das fünf Minuten

00:15:03: auf dem Laptop

00:15:04: Oder es dauert zwei Wochen auf dem GPU Cluster.

00:15:07: Das hängt ganz vom Modell und vom Problem auch da klar.

00:15:10: man hört immer diese großen tollen modelle sind so toll und man kann mit viel Rechenpower viel rausholen Aber irgendwann lohnt sich das auch nicht.

00:15:18: dann dann kostet es nur Zeit um Geld, dass heißt Es ist auch richtig hier die richtige Größe zu nehmen von

00:15:23: Ja okay Und wenn's dann trainiert ist als model kommt auch irgendwelchen Schritten nachher bevor es irgendwie in die produktive anwendung kommen

00:15:31: jeden fall sogar sehr viele.

00:15:33: Das ist etwas, was viele Leute dann wundert.

00:15:35: Wenn man an dem Punkt sind okay wir haben die Daten und... Was absolut selten ist?

00:15:40: Die Daten sind gut und alles stimmt.

00:15:42: das ist leider nur zehn Prozent der Projekte weil meistens fangen da die Diskussionen an und die Sachen laufen aus einem Bruder.

00:15:49: aber wenn man das hat und dann läuft es Training durch und dann wundert man sich ja das funktioniert ja gar nicht.

00:15:55: Das habe ich auch schon oft gehört.

00:15:56: so Ja weil's der erste Ruf ist.

00:15:59: Wir kennen das aus der Softwareentwicklung.

00:16:01: Das passiert sogar öfter bei Leuten, die viel Ahnung mit Softwareentwirkungen haben.

00:16:04: Wenn da fehlerfrei was durchläuft und sind wir eigentlich fertig, schreiben wir noch ein paar Unitests machen alle unseren schönen Test Sachen drumherum und machen das alles ordentlich mit Schleifchen drum.

00:16:15: aber dann war es das eigentlich.

00:16:16: beim Machine Learning passiert dann manchmal etwas Lustiges.

00:16:19: Das funktioniert so bisschen und das hängt davon ab.

00:16:25: Auch diese Projekte sind idealisierte Ablauf, man kann auch andere Sachen machen sogenannte Hyperparametersuche.

00:16:30: Das Problem ist ich habe jetzt ein Modell das sollte eigentlich funktionieren und dann hab' ich da aber sieben Parameter die Learning Rate.

00:16:36: in sogenannten Scheduler gibt's lustige esoterische Einstellung nur weil das quasi einmal funktioniert hat.

00:16:42: in dem Paper für einen Datensatz Kann es sein, dass bei deinem Datensatz nicht mehr so gut funktioniert?

00:16:47: Und dann muss sie anfangen, um zu justieren.

00:16:50: Oder ich merke nach dem dritten-fünften Training, das wird ein bisschen besser durch die Justiererei aber nicht wirklich... Dann merke ich auf einmal, nee war da noch nicht die richtige Architektur und meistens hat man eine Liste von Kandidaten.

00:17:02: Das sind dann educated Gasses, die hoffentlich durch Auffahrung Education of Ausbildung basierenden Wissen, aber dass du beim ersten Mal gleich richtig liest perfekt.

00:17:15: Und selbst wenn du super gut liest, lohnt es sich eventuell noch eine zweite dritte Alternative auszuprobieren um nochmal was rauszukommen.

00:17:23: denn das Problem bei den Sachen ist diese Qualitätsmaße.

00:17:28: Und dann gibt's halt Qualitätsmaße.

00:17:30: Woher weiß ich denn, dass sich überhaupt ein gut genuges Modell hat?

00:17:33: Das ist auch etwas was vorher damit im Kunden besprochen werden muss das viel Expectation Management zum Beispiel wenn Ich jetzt für dich Für die afritz Ein modell trainiere irgendein aufgabe zu lösen.

00:17:44: vielleicht fällt uns gleich noch ein schönes beispiel.

00:17:46: sie frage wir wissen Jetzt Beide sind immer wieder wiederholt machine learning.

00:17:51: oder sollte man jetzt nochmal deutlich sagen kein Machine Learning Verfahren wird hundert prozent korrekt sein.

00:17:57: Wir können Wir wissen alle, dass Software Tonnen von Fehlern hat und wir lassen mal all die Sachen weg.

00:18:01: Aber in einer idealisierten Welt ist es möglich eine Softwarefehler freizuschreiben.

00:18:05: Dies Deterministisch habe alle Fälle abgedeckt bin fertig.

00:18:09: Die NASA schafft sowas wenn sie ne Sonde baut oder so.

00:18:11: Normales Software hat immer Fehler aber... ...die Fehler wenns gut gebaut sind dann wirklich sehr.

00:18:17: Und wenn der Fehler auftritt kann ich gucken warum und kann ihn auch beheben?

00:18:20: Ein Machine Learning Modell wird immer eine Fehlerquote haben.

00:18:24: Immer!

00:18:25: Weil es halt so ein Statiste, da ist ja meistens irgendwas auch wenn's kein neuronales Netz ist.

00:18:29: Immer irgendwas mit Statistik und Heuristiken und so ist immer eine Approximation.

00:18:33: Das wird immer einen Fehler machen.

00:18:35: Und dann muss ich den Kunden fragen Mit wie viel Fehlern könnt ihr leben?

00:18:38: Und dann wirds richtig kompliziert.

00:18:39: Es gibt ja unterschiedliche Fehler.

00:18:41: Ja, es kann ja.

00:18:42: zum Beispiel macht man Einfach mach mal ein Spam Filter.

00:18:44: das versteht jeder.

00:18:45: Übrigens ein super Beispiel von Machine Learning Verfahren.

00:18:48: Jedes der kennt den Spamfilter Der bei der E-Mail Den Mist aussortiert.

00:18:53: Das sind Machine Learning-Modelle, nicht unbedingt neuronale Netze.

00:18:57: Und dann ist die Frage was ist dir lieber?

00:19:00: Du kriegst noch ein bisschen Spam aber alles was nicht Spam ist landet garantiert in deinem Posteingang.

00:19:07: das ist das was die Leute mal eher wollen.

00:19:10: oder aber ich flecks dir garantiert den gesamten Spam weg aber ab und an geht auch mal eine Geschäfts-Emailflöten.

00:19:18: Arten von Fehlern, die muss man gegeneinander abwägen und je nachdem in welchem Bereich ich bin ist das eine besser oder das andere.

00:19:26: Und dann kommt noch dazu, dass je nach dem was für ein Art von Problemichlöse ich sehr unterschiedliche Metriken habe.

00:19:32: Wir haben jetzt nur von der Genauigkeit gesprochen.

00:19:34: Das ist das wie Sie da sofort kennt.

00:19:36: Die sogenannte Accuracy.

00:19:37: Wie viele Prozent der Entscheidungen sind richtig?

00:19:41: Wenn man zum Beispiel so etwas hat, so neun, neunzig Prozent hört sich super an!

00:19:45: Jetzt sage ich dir was... Ich trainiere dir in null Sekunden ein Machine Learning-Modell, das auf Ebola in Blutproben testet.

00:19:55: Neunneinzig, neunneun Prozent korrekt!

00:19:57: Warum?

00:19:57: Wir testen nur deutsche Blut-Proben und wir haben hier praktisch nie Ebola.

00:20:01: Das heißt, dass das Modell sonst einfach immer nötig ist.

00:20:04: Keine Ebola.

00:20:04: Ist zu neun neunzig, nine neun Prozent correct?

00:20:07: oder?

00:20:08: ich baue da einen Spam Filter der jedes Spam aussortiert.

00:20:11: Geht noch schneller.

00:20:12: Ich sage einfach, es ist Spam ohne es mir anzugucken.

00:20:15: Wenn ich echt viel Spam bekomme, bin ich locker bei einer Genauigkeit von fünfzig bis achtzig Prozent.

00:20:21: Wird sich toll an ist aber nutzlos.

00:20:22: Das heißt diese einfache Genauigkeit ist manchmal quatsch!

00:20:26: Das heißt wir sprechen über eine Fehler-Toleranz sowohl bei false positives also positiven Fällen die irgendwie aussortiert werden aber auch den false negatives.

00:20:36: Sollten wir mal kurz erklären wenn man unterscheidet eine Reihe von Fehlern?

00:20:41: bei Klassifizierungsaufgaben, wenn man bei anderen Aufgaben sind gibt es dann wieder andere Begriffe.

00:20:46: Ein false Positiv wäre beim Spam.

00:20:48: eine Mail die kein Spam ist wird als Spam also positiv getestet ein falsches Positive und da gibt's einen False Negativ.

00:20:56: wer die Spam-Email kommt rein wird als Geschäfts-Email akzeptiert und der False Negative.

00:21:05: Dann fängt man an mit einem sogenannten Confusion Matrix.

00:21:08: das Problem an der Stelle das ist da sehr abhängig vom Problem, muss derjenige, der das macht die richtige Metrik wählen.

00:21:15: Da gibt es viel mehr andere noch und die muss man dann auch dem Kunden verständlich machen ja?

00:21:21: Und da muss auch jeder ein bisschen dann offen sein für okay.

00:21:24: ich will jetzt erstmal lernen wie mässigt denn jetzt das Problem?

00:21:28: und dann muss in der Dynamik mit dem Kunden schön ausdiskutiert werden was ist vor euch das Richtige?

00:21:36: weil manche Modelle unterschiedliche genau.

00:21:39: Das heißt um nochmal irgendwie im Prozess von einem L-Projekt zu bleiben, es gibt am Anfang was so rauskommt ich sammle Daten, ich anotiere die ich trainiere und dann tritt ein iterativer Prozess in Gang der vielleicht ein zwei drei Schleifen braucht.

00:21:56: Ja fifty bis hundert da sind die Leute nämlich auch überrascht.

00:22:01: Also das sind aber alles Testschleifen hinten dran quasi ein E-Test, ein integrativer Test sozusagen mit echten Daten um zu sehen passt es oder passt es nicht.

00:22:16: Also was man macht ist man unterteilt die Daten in drei Datensätze.

00:22:21: Man möchte erst mal sagen okay in zwei.

00:22:23: Eins zum trainieren, eins zum testen.

00:22:25: Viele dieser Algorithmen können sich unheimlich gut Sachen merken.

00:22:29: das heißt einfach alle Daten zum Training verwenden sind ganz böses.

00:22:32: No no Weil dann funktioniert sofort, hey!

00:22:35: Hundert Prozent Genauigkeit.

00:22:36: Klar weil alles auswendig geworden wurde.

00:22:38: Jetzt möchte man denken ich splitte in Training und Test.

00:22:41: das heißt Training Set und Test Set ist aber auch gefährlich.

00:22:44: Weil wenn ich immer auf diesem Test Set teste Dann drehe ich meine Parameter so lange bis das Test Set super gut passt Und dann kommt es in die echte Welt und alles geht schief.

00:22:53: Das heißt das Test set ist ein bisschen... ...das ist Sacrosanct.

00:22:57: das muss sich ganz behutsam weg

00:22:59: tun.

00:23:00: und dann gibt's nämlich noch ein zweites Testset, das nennen wir Validation Set.

00:23:05: Das benutze ich um diese ganzen Schräubchen zu drehen und im Grunde genommen oft gleitet man dahin ab so auf das Testset zu testen ist mir auch schon passiert.

00:23:14: da muss man dann gucken ob man das verantworten kann.

00:23:17: aber Ich mache quasi eine innere Schleife dass es mit dem Trainings set und einem validation set und da versuche ich mein Algorithmus zu feiern Und da kann ich auch teilweise hunderte iterationen drehen Ja deshalb ist es so wichtig dass das sauber programmiert wird Weshalb ich immer der Meinung bin, dass Leute erst gute Softwareentwickler werden sollten und dann Machine Learning Experten anstatt umgekehrt.

00:23:38: um ehrlich zu sein.

00:23:39: Das stehe ich sehr allein mit dieser Meinung das muss sauber programmiert werden damit ich eben an einem Tag Zwei, drei je nachdem was ich trainiere wenn ein Training halt sehr lange dauern.

00:23:50: Ich brauche viele GPUs dann kann ich nicht so schnell iterieren aber das hier an einem Tag idealerweise in halbes Dutzend Interaktion hinbekommen und da sind Hundert Tests auch nicht so schlechter.

00:23:59: Das heißt dass mache ich mit diesem Validation Set.

00:24:01: drehe ich einen Schräubchen und ich genug einen Schäubchen gedrehen habe Dann gucke ich einmal mit dem Test set Und dann sollte die Performance immer noch gleich sein.

00:24:08: Wenn ich dann super gut auf den Validations set bauen Super schlecht auf dem test set dann hab ich etwas das nennt sich Overfitting Mein, mein Modell überangepasst auf die Trend-Termination.

00:24:20: Genau und dann kann ich große Schleifen drehen und kleinig, kann innere Schleife drehen ohne dass sich die Daten Leute behältigen muss.

00:24:26: Ich sag meine Daten sind gut genug oder mehr Daten ist immer besser, muss man dazu sagen wie viel Daten, wieviel Daten brauchst du?

00:24:32: Dann ist die Antwort ja!

00:24:36: Das heißt das sollte immer weiter gesammelt werden.

00:24:38: Aber manchmal merke ich auch durch, dann gibt es noch viel mehr Analysen und Tests.

00:24:42: Ich mache mich okay das mit den Daten passt noch nicht weil wir haben zum Beispiel einen Case entdeckt für den wir zu wenig Daten haben.

00:24:49: also heißt Es kommt nicht nur auf die Gesamtmenge der Daten an sondern ist mein Problem zB für Hunde und Katzen unterscheiden.

00:24:55: Ich habe eine Million Katzenbilder und nur zehn Hunde Bilder.

00:24:59: Super viele Daten, das nennt man unbalanciert.

00:25:01: Das heißt die Daten müssen noch balanciert sein.

00:25:04: Was waren noch so Lerneffekte oder so Learnings aus vergangenen Projekten?

00:25:10: Wo du sagst dass es wertvoll auch vielleicht für Leute die sich sowas in Zukunft überlegen?

00:25:16: Also es gibt ein paar schmutzige Dinge, die werden... Warte ich, ist jetzt BR-Technisch schlechter.

00:25:22: Aber wollen wir mal ehrlich sein.

00:25:24: also Nach außen hin ist jeder perfekt und weiß immer sofort alles.

00:25:27: Und alle Projekte sind ein Träumchen, das natürlich Quatsch!

00:25:41: Die wichtigsten Erkenntnisse kamen dann jetzt richtig übel schief gegangen.

00:25:46: Eine Grunderkenntnis die ich relativ früh zum Glück gesammelt habe Auch wenn man zum Beispiel schon viel weiß und denkt, meine Schätzungen sind schon ganz gut.

00:25:55: Man denkt immer also ich habe da einen relativ breiten Background Und kann zb dir zu jedem Modell was klug scheiß an worum es eine gute Idee ist Ja und was ich gemerkt habe egal auch wie selbstsicher.

00:26:09: Ich werde in dem was ich kann Da kommen.

00:26:12: Leute, die sind noch viel schlauer.

00:26:13: Die erklären dir ja das musst du auf jeden Fall mit dem Modell, mit den Eigenschaften machen und können das mathematisch herleiten Und dann testest du es uns total gut so und nimmst irgendein komplett anderes modell und test ist einfach ein bisschen rum.

00:26:24: und das läuft so.

00:26:26: Das heißt in der praxis Testen schlägt schlau überlegen Hört sich nicht sexy an, aber einfach so viel wie möglich ausprobieren und dann sind wir wieder bei der Pipeline.

00:26:36: Das muss alles automatisiert werden auf Knopfdruck ablaufen, Idioten sicher durchrattern damit du so schnell wie möglich so viele Modelle mit zu vielen Einstellungen wie möglich Ausprobierst.

00:26:47: Ausprobieren schlägt immer.

00:26:48: wenn man hinterher den Gewinner hat ist es sehr sinnvoll wenn man sich nochmal die Zeit und okay ich habe eigentlich gedacht model a ist besser.

00:26:54: wieso ist denn modell b besser?

00:26:57: Und da lernt man dann die Sachen draus, weil man immer irgendwas übersehen hat.

00:27:01: Aber ich war mal... Für eine sehr kurze Zeit habe ich versucht beim Bonner Box Club mit zu boxen.

00:27:08: Da war ich lange nicht fit genug dafür, Respekt falls es die noch gibt an dieser Stelle.

00:27:12: Die hatten aber in der Tonhalle ein Riesenplakat.

00:27:16: Ausdauerschläge Technik Das fand ich mega gut fürs Boxen und das stimmt bei Machine Learning auch.

00:27:22: Klar mehr zu wissen sind immer besser, sonst könnte sich ja jeder sofort.

00:27:25: also man muss schon bisschen was wissen.

00:27:27: Aber im Zweifelsfall ist schlaues Gutes, sauberes Engenierungen und einfach ganz viel ausprobieren besser als irgendwie sich was Wildes auszudenken.

00:27:36: Und auch ganz wichtig nie versuchen... Gut also Lessen zu können ja gleich noch beantragt sein.

00:27:42: Aber nie versuchen wirklich irgendwas komplett selber zu bauen.

00:27:45: Das wusste habe ich zum Glück ganz schnell gelernt am Anfang.

00:27:48: das ist aber der klassische Anfängerfehler immer wenn ich mit Neu-Einsteigern und Junioren arbeite die sagen okay ich hab eine tolle Idee wie man neuronale Netze selber bauen kann oder wie man das, die wollen dann bei Null anfangen.

00:28:02: Weil es so ... Das macht so Spaß!

00:28:04: Dieser Frankenstein-Effekt sich so ein neuronales Netz aus selber wirklich from scratch.

00:28:09: weil sie haben irgendwie eine Idee und sag ich ja... Die Idee gibt's da wurde zehn Jahre dran forscht.

00:28:15: Da gibt's so ein halbgehares Modell.

00:28:16: Es funktioniert nicht gut.

00:28:17: Glaubst du wirklich dass du jetzt in einer Woche was Besseres hinkommst?

00:28:20: Also selbst wenn wir selber trainieren immer immer immer ohne Ausnahme.

00:28:24: Eine existierende Architektur verwenden Wenn man echter Profi ist Ja, ich bin nicht das.

00:28:31: In manchen Projekten hingehen und diese Architekturen modifizieren.

00:28:36: Zum Beispiel haben wir bei einem, es gibt etwas nennt sich convolutional neural networks, das sind bilderkennende oder bildverabende arbeitenden Netzwerke.

00:28:45: da haben wir zum Beispiel einen total etablierten Netzwerk die input layer von ganz also die aller ersten Schichten ersetzt durch andere schichten aus Gründen.

00:28:54: Aber da habe ich dann der Rest, das war ein Fünf-Ninze Prozent gleich.

00:28:57: Und da haben wir nur nachdem es erst nicht geklappt hat die Standardideen geklappten.

00:29:01: Da haben wir mal ein bisschen ausprobiert und ist so... Die abgefahren Ideen auf die man so stolz ist, die sich toll anhören, die der Kunde auch gerne hören möchte weil mal wieder ein bisschen diesen Chichi klappen.

00:29:12: Man muss sie probieren wenn man mit dem Rücken an der Wand steht.

00:29:15: irgendwann muss man kreativ werden.

00:29:17: aber bevor ich kreatif werde immer einfach

00:29:21: Da komme ich gleich nochmal drauf zu sprechen, weil du das eben mit der Pipeline gesagt hast.

00:29:25: Dass es relativ stringent automatisiert ablaufen muss um sowas wirklich zeitnah und wirtschaftlich irgendwie durchzubringen.

00:29:34: Hast du da einen Empfehlung was für Frameworks oder was für Tools es dafür gibt?

00:29:39: Oder ist das individuell?

00:29:42: Ja, also eins der frameworks das ich bisher immer empfohlen habe die sind von mir gekauft worden und ich schmeißen ihre Kunden raus.

00:29:53: Bevor ich als es gibt da ein ganzes Themenfeld ist nennst du ML Ops machine learning operations.

00:29:59: Das ist so eine Mischung.

00:30:00: Also Ich möchte kein ml ops Experten zu nahe treten.

00:30:03: das kann man sehr professionell auch sehr weit treiben.

00:30:06: Das Problem ist dass die leute zu früh zu komplexe frameworks und zu komplekte tools machen wollen.

00:30:11: In neunzig Prozent der Fälle ein sauberes Skript, sauberes sogenanntes Dependency Management.

00:30:19: Die die Softwareentwickler, die zuhören werden müssen was es ist.

00:30:22: Saubere Datenverwaltung also eher in Tools zur Daten Verwaltung investieren.

00:30:27: ansonsten reicht auch oft erst mal einfache Versionskontrolle.

00:30:30: wir haben die krassesten Sachen die wir bisher gebaut haben.

00:30:33: die haben ganz gut funktioniert einfach nur mit Konfigurations Dateien.

00:30:38: Ganz wichtig ist, dass man bei jedem bandettes Experiment jedes Trainings ein Experiment ist.

00:30:42: Man jedes Experiment bis auf das letzte Komma nachvollziehen kann.

00:30:46: Das heißt, man sollte alles was das Experiment ausmacht in Code oder in Konfigurations Dateien schreiben und die müssen in einer Versionskontrolle gelagert werden.

00:30:58: Man als normaler Softwareentwickler so nicht sofort auf der Haube hat, wie wichtig das Konfig-Dateien eingecheckt werden oder in die Versionsverwaltung gehen müssen viele.

00:31:07: Aber dass diese Konfigurationen ultra, ultra wichtig sind und sie müssen ja Versionskontrolle festgehalten werden.

00:31:13: Und dann reicht es sehr oft wenn ich nur noch ein Skript schreibe, dass einfach nur den Prozess ohne lustige Weboberflächen oder irgendwas automatisiert und sauber eine Lockdatei des Ergebnises schreibt.

00:31:23: Das ist schon erstmal genug für die meisten ML-Obsachen viel wichtiger als diese Automatisierung.

00:31:29: Die Automatisierungen, die ich mit sauberen programmieren sowie andere Sachen auch automatisiere sind nützlich sind dann Tools, mit denen ich mir zum Beispiel die Ergebnisse von verschiedenen Testläufen parallel anzeigen lassen kann.

00:31:42: wie gesagt mein persönlicher Favourite den gibt es jetzt nicht mehr.

00:31:46: Es gibt ein Tool das sollte man sich zuerst dann gucken wenn mal wenig Geld hast das heißt ML Flow.

00:31:51: Das ist ein Open Source Tool, das für viele kleine Projekte schon ausreichend ist.

00:31:55: Das kann man entweder selber hosten oder man kann es sich auch irgendwo mieten.

00:31:59: Da kann ich mir dann zum Beispiel hier Experimente angucken und kann mir angucken wie die Fehlerrate.

00:32:04: Die wird während des Trainings sehr auf Parallel anguckt.

00:32:07: Dann kann ich gucken okay hier geht die Fehler rate flach ab?

00:32:10: Hier scheint noch was zu sein.

00:32:11: Und da kann man verschiedene Analysen fahren.

00:32:13: also das lohnt es sich zum Beispiel wenn ich das erste ist saure Versionskontrolle sauberes Skripte umhin ich das habe, dann kann ich anfangen mit grafischen Tools um mir die Ergebnisse anzeigen zu lassen.

00:32:23: Das machen wir ja manchmal.

00:32:24: Ja okay und nochmal auf diese Frage der nicht immer Wirtschaftlichkeit oder Sinnhaftigkeit von einem eigenen ML Projekt irgendwie zu sprechen zu können ab wann lohnt sich so was?

00:32:36: Und wenn jetzt Unternehmen drüber nachdenken ab wann oder zu welchen Zeitpunkt ist auch einfache Logik sinnvoller um das mit einer gewissen Genauigkeit einfach abzufrischstücken.

00:32:46: Also ich sollte immer erst versuchen, und das sage ich als jemand der sein Geld damit verdient.

00:32:51: Immer erstmal gucken ob ich es einfach sauber programmieren kann.

00:32:54: Also nicht einfach sagen... also schon mal gar nichts sagen wir brauchen KI spiel LLMs Und auch dann die unbedingt sagen wir brauch einen ML Sondern erstmal gucken, ob ich jetzt sauber programmieren kann Das... und dann ist es ganz simpel da mach' ich's anders Weil Programmieren ist schneller Ich kanns besser überprüfen Ich kann besser Fehler rausfinden ML wird immer dann praktisch, um diese unscharfen Probleme zu lösen.

00:33:20: Ich sage immer Machine Learning oder KI ist der Kleister.

00:33:23: also wenn ich mir vorstelle ich habe ganz normaler Kodes wie ein sauberes schönes Uhrwerk, sauber vermessen, wenn dann kausale Ketten und da gibt es immer so diese unsauberen Fragen die einen Mensch sofort lösen kann.

00:33:38: Ist das BAM?

00:33:39: Oder nicht!

00:33:39: Das kann Menschen sofort sehen Das kannst du in keinen deterministischen Algorithmus gießen.

00:33:46: Oder wenn zum Beispiel ein Experte hört, ah der Motor hört sich komisch an wir sollten mal eine Inspektion machen.

00:33:51: das ist ein Bauchgefühl.

00:33:52: also im Grunde genommen wenn ich programmiertes Bauch-Gefühle brauche dann fange ich mit Maschinen lernen.

00:33:58: Oder wenn es einfach so komplex wird oder so verzettelt mit so vielen lächerlichen Unterregeln, dass sich irgendwann Sache so nähe ist.

00:34:04: Ich weiß es halt!

00:34:05: Also wenn die Antwort ist, wenn der Experte sagt ich sehe das halt dann ist es meistens Machine Learning

00:34:10: oder kei.

00:34:11: Okay ja verstanden.

00:34:13: Gibt's abschließend was wo du sagst?

00:34:15: Das würde ich Unternehmen raten abgesehen von Datenqualität und Datenaufbereitung Wenn sie sich irgendwie einen L-Projekt nähern wollen.

00:34:23: Es ist immer sehr gut wirklich mit Basics anzufangen.

00:34:27: Das was wir heute gesagt haben sich wirklich zu verinnerlichen, also es ist keine Magie das sagen wir immer wieder.

00:34:33: Es ist nicht glamourös und es gibt auch keinen fertigen Zauberstab mit dem man einfach etwas aus der Ausmucht ziehen kann.

00:34:39: Also die Unternehmen muss bereit sein mitzuarbeiten.

00:34:44: Entweder wenn's das eigene Team oder Dienstleister also die Machine Learning Leute Einzuarbeiten in die Domäne, die müssen verstehen was das Problem ist.

00:34:51: Das auch etwas habe ich eben weggelassen.

00:34:54: D.h.,

00:34:54: die Machine Learning Engineers oder wie man sich die Leute denken, die das bauen?

00:34:58: Die müssen verstehen, was ich da mache!

00:35:00: Ja also ob das jetzt keine Ahnung Autoreifen sind oder was ich muss wirklich verstehen und dann bereit sein ein bisschen über Machine Learning zu lernen.

00:35:09: Man muss nicht ins Detail gehen.

00:35:11: Und das ist ja auch das was wir versuchen mit unserem Podcast.

00:35:14: Also unseren Podcast bitte weiter hören und zuschauen.

00:35:17: Es gibt auch gute Onlinekurse für Einsteiger.

00:35:20: Da empfehle ich zum Beispiel immer, ich glaube der ist sogar von... Ich weiß nicht ob es wirtschafts- oder das Bildungsministerium ist?

00:35:25: Der heißt Elements of AI.

00:35:28: Disclaimer!

00:35:28: Das ist eine kommerzielle Firma irgendwie aus Gandinavien und ich kriege von denen kein Geld.

00:35:33: aber da gibt's einen kostenlosen Einsteigerkurs.

00:35:36: Der ist auf Deutsch übersetzt, gesponsert von wie gesagt Ministerium XY.

00:35:40: den Link dem packen wir dann in die Beschreibung Und den kann ich zum Beispiel empfehlen.

00:35:44: Also erstmal so ein bisschen sich mit dem Thema auseinandersetzen, wenn man wirklich Machine Learning verstehen möchte gibt es ein sehr schönes Buch das ist in der deutschen Übersetzung leider nicht so gut

00:35:54: d.h.,

00:35:55: you look like a thing and I love you und zwar... Der Titel ist deshalb der weil die Autorinnen im Buch eine KI drauf trainieren wollte tolle Anmachsprüche zu lernen.

00:36:06: Dann gab es halt auch so ein Fehlermaß und das KI-Modell hat dann gesagt, der beste Achm-Anmachspruch.

00:36:11: Neuer Anmachspruch den ich dir sagen kann ist You look like a thing and I love you.

00:36:16: Das natürlich auch wunderschöner.

00:36:18: Es gibt's auf Deutsch die ist leider nicht so lustig, die deutsche Übersetzung aber auch gut.

00:36:23: Ich denke das Buch kann man auch da reinpassen.

00:36:25: Das Tolle an dem Buch ist man muss keine Technik verstehen.

00:36:28: Das erklärt es sehr intuitiv.

00:36:29: also sich so ein bisschen Thema nähern.

00:36:31: eine ganz wichtige Sache ist sicherstellen dass die Leute die daran teilnehmen auch bereit sind, dass das Projekt ein Erfolg ist.

00:36:38: Also alle Projekte immer wenn es häufig wurde hingekriegt haben wir's am Ende immer.

00:36:45: Es war immer in People Person Es ist immer an Reibereien gescheitert.

00:36:50: Ein Grund ist, dass Leute wegen dieser ganzen Medien gerade sehr skeptisch zum Thema Kaisen und sehr dagegen arbeiten und das kaputt machen wollen.

00:36:59: so früh wie möglich.

00:37:00: also guck mal habe ich quasi eine Gegenhaltung im Team.

00:37:03: oder sind auch wirklich alle bereit?

00:37:05: Dann ein weiteres Problem ist leider manchmal, dass das Thema halt sehr sexy ist und allen Stück abhaben wollen.

00:37:10: Und Abteilung A kriegt das Projekt und Abteilungen B wills aber, hatte ich auch schon es sehr knifflig Wenn man dann noch als Dienstleister dazu kommt um das Problem schneller zu lösen.

00:37:21: Ich habe es schon öfter erlebt Dass quasi der Dienstleist als Bedrohung wahrgenommen wird.

00:37:29: In-Haus Leute sagen, das ist ein wichtiges neues Thema.

00:37:31: Das will ich lernen.

00:37:32: Nehmt mir das nicht weg diese Chance zu lernen.

00:37:35: Von oben kommt dann ja wir müssen schnell fertig werden.

00:37:37: Wir brauchen einen Experten.

00:37:39: Ein guter Experte und da ist es auch wichtig dass man diese Angst beim eigenen Team vorher erkennt... ...und dann muss man halt auch dafür sorgen, dass der Dienstleister den Knowhow Transfer vornimmt.

00:37:52: Dass die Leute zusammenarbeiten, dass sie nicht von oben an gesagt haben du bist so doof, wer kann das?

00:37:57: dann ist das Projekt eigentlich schon tot, weil irgendwann muss man zusammenarbeiten und die Leute haben überhaupt keine Lust mehr zusammen zu arbeiten.

00:38:03: Das heißt, die Hauptprobleme beim ML wirst du mir beiflichten wie in jedem IT-Projekt es sind immer organisatorische menschlich emotionale Probleme.

00:38:11: Wenn die Daten... Also es gibt nur ein Problem, es kommt dazu die Daten also die gleichen Probleme wie bei jedem IT Projekt plus Daten.

00:38:21: Sehr cool.

00:38:21: Ich glaube, dann haben wir jetzt mal so einen groben Rundumblick zum Thema Machine Learning und wie man das eigentlich mal eigens in Unternehmen implementieren kann bekommen.

00:38:30: Falls es auch da wieder Fragen zu gibt, klappt jeder gemerkt, Christoph brennt dafür?

00:38:34: Ich möchte bitte noch eine zweite, dritte Folge machen.

00:38:37: Das heißt also wenn jemand nochmal ganz genau wissen will welche Erfolgsmetrigen braucht man, also gerne immer da wieder die Fragen, dann gehen wir da nochmals Detail an aber...

00:38:47: Ja supergerne!

00:38:49: Dann vielen Dank für deine schlauen Fragen und

00:38:53: fürs Zuhören.

00:38:56: Ich hoffe es hat Spaß gemacht, bis zum nächsten Mal!

00:39:08: Liebe Zuhörer das war unser Blick hinter die Kulissen von ML-Projekten.

00:39:12: Weniger Magie mehr Handwerk als gedacht oder?

00:39:15: Wir hoffen wir konnten euch einen realistischen Einblick geben was euch bei eurem eigenen ML Projekt erwartet.

00:39:22: Teilt uns gerne eure Fragen wünschen und Gedanken zur heutigen Folge über die Email in der Beschreibung mit.

00:39:27: Wir hoffen, ihr seid auch bei der nächsten Folge von Künstlich Klug wieder mit dabei.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.