Ailio GmbH

Ailio GmbH

IT-Dienstleistungen und IT-Beratung

Bielefeld, Nordrhein-Westfalen 1.848 Follower:innen

Technologien der Zukunft für Automatisierung und Prozessoptimierung

Info

Decode Your Data! Sie wollen Ihren Datenschatz nutzbar machen? Wir setzen maßgeschneiderte Data-Science und KI Use-Cases um. Ein innovatives Leuchtturmprojekt ist der perfekte erste Schritt zum datengetriebenen Unternehmen. Microsoft Azure KI & Data-Science Partner Databricks Partner

Branche
IT-Dienstleistungen und IT-Beratung
Größe
2–10 Beschäftigte
Hauptsitz
Bielefeld, Nordrhein-Westfalen
Art
Kapitalgesellschaft (AG, GmbH, UG etc.)
Gegründet
2015
Spezialgebiete
datascience, KI, bigdata, Databricks, Azure, dataanalytics, python, django, graphdatenbanken, sqldatenbanken, kafka, streaming und message streaming

Orte

Beschäftigte von Ailio GmbH

Updates

  • Ailio GmbH hat dies direkt geteilt

    Profil von Dr. Tim Lenzen anzeigen, Grafik

    Senior Data Scientist @ Ailio GmbH

    Viele KI-Projekte sollte es gar nicht geben! Wenn man nur einen Hammer hat, sieht alles aus wie ein Nagel. So oder so ähnlich scheint die Vorgehensweise manchmal in Zeiten des KI-Hypes. Natürlich hat so ein Hype auch etwas Magisches: die Lösungen zu vielen bis dato unlösbaren Problemen scheinen auf einmal in Reichweite. Doch wo Licht ist, ist auch Schatten. Einige Probleme werden nur scheinbar oder schlecht gelöst. Einige Beispiele: Tools zum automatischen Erstellen von Meeting-Notizen scheinen eine echt tolle Idee und ja, auch ich nutze solche Tools. Aber aus meiner Sicht sind sie nur allenfalls die zweitbeste Lösung. Erstens sollte man sich sowieso immer vorab die Frage stellen, ob ein Meeting wirklich nötig ist oder ob nicht z.B. eine e-Mail zur Klärung reicht, sozusagen Lösung 1a. Bei der Lösung 1b ist das Meeting vorbereitet: Es liegt eine Agenda und ggf. zusätzliches Info-Material vor, es gibt eine klare Zielvorstellung für das Meeting und die Ergebnisse werden im Meeting gemeinsam festgehalten. So stellt man gleichzeitig sicher nicht aneinander vorbeizureden. Ein weiterer Bereich in dem KI genutzt wird umfasst viele Arten von Bewerbungen. Wobei ich den Begriff hier weit fassen würde und sowas wie Ausschreibungsverfahren oder Forschungsanträge miteinbeziehen würde. In der “perfekten” Welt erstell die generative KI die Ausschreibung auf der einen Seite und Anschreiben und Bewerbungsmaterial auf der anderen Seite. Am Ende entscheidet dann eine dritte KI, welche Bewerbung die beste ist. Nach meinem Dafürhalten zeigt dieses Beispiel, dass die formalen Anforderungen an solche Verfahren oft disfunktional sind. Wenn eine KI ein hinreichend gutes Bewerbungsschreiben verfassen kann, ist es kein hilfreiches Entscheidungskriterium mehr. Aus meiner Sicht kann der Ruf nach KI-Lösungen ein Zeichen dafür sein, dass der eigentliche Prozess einer Verbesserung Bedarf. Der Wunsch nach einer einfachen Lösung ist verständlich. Oft liegt es ja auch nicht in der eigenen Hand die jeweiligen Prozesse zu verändern. So kann ich ja als Bewerber nicht einseitig beschließen: „Ein ausformuliertes Anschreiben ist Quatsch, ich schicke nur ein paar Stichpunkte!“ Und in solchen Fällen, haben die KI-Lösungen einen Wert. Im besten Fall aber nur für den Übergängen hin zu einer grundsätzlichen Vereinfachung. Vereinfachung ist hier das entscheidende Stichwort. Organisationen haben die Neigung mit der Zeit immer komplexer zu werden. Es ist oft einfacher sich in der Gruppe auf eine komplexe Lösung zu einigen als auf eine einfache. In der Politik finde ich dieses Phänomen immer wieder besonders offenkundig. Hier sollten wir alle gemeinsam die Kraft aufbringen Occams Rasiermesser walten zu lassen und Dinge zu vereinfachen und Prozesse zu entwirren. Dann braucht es an vielen Stellen gar keine fancy KI-Lösungen.

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Lasst uns mal über HeyGen und KI Videos sprechen. Ich finde es ehrlich gesagt gar nicht gut ... Vor 1-2 Jahren habe ich HeyGen schon mal getestet und fands ehrlich gesagt gruselig. Nachdem ich von mehreren großen Corporates gehört habe, dass sie HeyGen mittlerweile breitflächig in Marketing, Vertrieb und Kundenkommunikation einsetzen wollte ichs mir nochmal anschauen. Im Post ist ein Video das ich mit einem kleinen ChatGPT generierten Ailio Script erstellt habe. Auf den ersten Blick: Cool! Auf den zweiten Blick: Hilfe ... Ich finde KI Videos sind: 👉 Extrem leicht zu erkennen. Die Person macht fast die gleichen Gestiken in einer 5-10 Sekunden Loop mit minimalen Abwandlungen. Das einzige was wirklich gut mit KI generiert ist, ist der Lip-Sync. 👉 Die Sprecher Stimme passt gefühlt nie wirklich wirklich zum Bild und wie die Person redet. 👉 Es fühlt sich komplett emotionslos und statisch an. Ich mache ein Video oder schaue es mir an, um einen Menschen zu erleben. Eine Stimme hat Emotionen, tiefe, Betonungen die zum Text und Gedachten passen. Das fehlt mir hier komplett. Generell kann man sagen: Visuell funktioniert es beeindruckend gut, aber normale Menschen erkennen sofort, dass es sich um ein KI generiertes Video handelt und ich persönlich krieg da Gänsehaut. Würde mir 1000 mal lieber einen Blog Artikel / eine Mail durchlesen anstatt mir von einem KI generierten Avatar mit einer mechanischen emotionslosen den Text runterratternden Stimme etwas erzählen zu lassen. Für mich schwingt da immer der Gedanke mit: Du bist zu faul dich vor die Kamera zu setzen und echten Content zu machen aber willst, dass ich meine Lebenszeit damit verdödel mir dein lieblos generiertes KI Video anzuschauen? Würdet ihr es cool finden als Kunde auf diese Art "personalisierte Videobotschaften" oder Youtube Video Content oder Produkterklärungen zu bekommen? Ich ehrlich gesagt nicht. Wo ich den Case aber extrem gut finde: Man hat ein Video selber gemacht und übersetzt es mit Heygen in 30 verschiedene Sprachen. Mein Chinesisch ist etwas eingerostet. Dafür ist so eine Lösung echt Hammer und spart unglaublich hohe Kosten.

  • Ailio GmbH hat dies direkt geteilt

    Profil von Dr. David Geisel anzeigen, Grafik

    CDO @Ailio

    Ein häufiges Problem beim Trainieren von ML-Modellen ist die ungleiche Verteilung von Daten und Labels. Für viele Anwendungen ist es jedoch entscheidend, seltene Ereignisse genau vorherzusagen, wie zum Beispiel ungewöhnliche Sensorwerte oder Krankheitsindikatoren. Machine-Learning-Modelle haben oft Schwierigkeiten mit solchen unbalancierten Targets, da sie tendenziell einen Bias gegenüber häufigen Targets entwickeln. Bei Klassifikationsproblemen gibt es bereits etliche Methoden zur Optimierung dieser Modelle, wie etwa das Oversampling seltener Klassen oder das Undersampling häufigerer Klassen. Eine bekannte Methode hierfür ist [SMOTE](https://lnkd.in/eZF4GfJZ) ("Synthetic Minority Oversampling Technique"). Bei Regressionsproblemen mit ungleichen Verteilungen der Labels gibt es ähnliche Ansätze wie [SMOTER und SMOGN](https://lnkd.in/eX4WEwUv). Diese Methoden passen SMOTE an kontinuierliche Target-Verteilungen an. Der Prozess beinhaltet die Identifizierung von dichten und weniger dichten Regionen in den Target-Daten. In den weniger dichten Regionen werden synthetische Datenpunkte erzeugt. Dies geschieht durch Interpolation: Ein zufälliger Punkt aus einer weniger dichten Region wird gewählt, die k nächsten Nachbarn werden identifiziert, und ein neuer Punkt wird durch Interpolation zwischen dem ausgewählten Punkt und einem seiner Nachbarn erzeugt. Zusätzlich wird gaußverteiltes Rauschen hinzugefügt, um die Variabilität der synthetischen Daten zu erhöhen. Ein Beispiel ist das [Housing Dataset](https://lnkd.in/eRhpbqUW), bei dem ich versucht habe, die Hauspreise anhand von Features wie Fläche, Zustand, Baujahr und Verkaufsjahr vorherzusagen. In der beigefügten Grafik sieht man die Verteilung der Hauspreise in den ursprünglichen und den modifizierten Trainingsdaten mithilfe von SMOGN. Sowohl Over- als auch Undersampling wurden angewandt, um die Verteilung der Targets gleichmäßiger zu gestalten. Die Scatterplots zeigen die Ergebnisse eines RandomForestRegressors auf den Testdaten, trainiert auf den ursprünglichen und modifizierten Daten. Obwohl der Unterschied in den R²- und RMSE-Werten gering ist, wird deutlich, dass das optimierte Modell besser in der Lage ist, besonders hohe Hauspreise vorherzusagen. Trotzdem bleibt der Goldstandard zur signifikanten Modellverbesserung immer noch das Sammeln zusätzlicher realer Daten. Was denkt ihr darüber? Habt ihr bereits ähnliche Tools verwendet?

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Gestern waren Daniel Brokmeier und Ich beim OWL-Maschinenbau Kongress 2024. Dem größten Event des Jahres von einem unserer Lieblingsnetzwerke 😊 Dabei konnten wir aus vielen spannenden Vorträgen und Gesprächen hautnah mitbekommen was den Maschinenbau gerade umtreibt und haben für unseren eigenen Beitrag: "KI-Turbo im Maschinenbau | Was abseits von Buzzword-Bingo und ChatGPT mit deinen Daten möglich ist und wie deine Kunden profitieren." viel positive Rückmeldungen bekommen. Allgemein ist die Stimmung in der Investitionsgüterbranche aktuell eher düster, aber Stephan Remmert hat in der Eingangskeynote schön formuliert: Wir müssen mutig bleiben, in unsere Mitarbeiter investieren und bisherige Strategien sowie den aktuellen Kurs des Unternehmens stetig hinterfragen und neu denken. Ich finde: Wir Leben in einer Welt mit unzähligen Krisenherden in der man sich berechtigterweise Sorgen machen und durch Unsicherheit was die Zukunft bringt gelähmt sein kann. Gleichzeitig leben wir in einer Welt, in der es noch nie so leicht war an Informationen ranzukommen, neue Geschäftsmodelle zu verproben, kreative Lösungen zu entwerfen und diese mit dem Markt zu teilen. Es war noch nie so leicht und noch nie so schwer Geld zu verdienen gleichzeitig. Von daher kann der einzige Weg vorwärts für den Mittelstand sein: Ärmel hochkrempeln und anpacken.

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Bei Ailio gehts heiß her, aktuell sind wir voll auf Wachstumskurs, nachdem wir in den letzten 2 Jahren den Boden dafür bereitet haben. Diesen Monat sind Dr. Martin Müller und Dr. Tim Lenzen zu uns gestoßen, um unser Data-Science und Data-Plattform Team zum vergrößern und dem steigenden Bedarf an komplexen Data-Projekten zu begegnen. Tim hat einen Background als Doktor in theoretischer Chemie & in den letzten 5 Jahren im Security Bereich ein Data-Science Team in Kombination mit einer Datenplattform von der grünen Wiese aufgebaut, bevor er zu uns gekommen ist. Er wird als Allrounder mit anpacken. 😊 Martin hat einen Background als Doktor in Neurobiologie und vor allem Erfahrung damit komplexe Modelle auf großen Datenmengen zu entwickeln. Er wird uns vor allem im Data-Science und KI Bereich unterstützen. 😊 Im Data-Science Bereich ist es immer wieder spannend, dass man mit neuen Kollegen und Bewerbern aus unterschiedlichsten Fachbereichen zu tun hat. Besonders früher als man noch nicht "KI" studieren konnte, kam der klassische Data-Scientist als Quereinsteiger aus Physik, Soziologie, Mathematik, Biologie und vielen anderen Fachrichtungen. Für uns ist vor allem ein Naturwissenschaftlicher Background sehr hilfreich, da ein großer Teil unserer Projekte im produzierenden / industriellen Umfeld angesiedelt ist und ein tiefgreifendes Verständnis für die Domäne und die Prozesse, in der sich die Daten befinden, extrem hilfreich ist. P.S. dass wir alle fast die gleiche Hose anhaben ist Zufall und keine offizielle Ailio-Uniform :D

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Meine wichtigste Erkenntnis aus 10 Jahren KI, Data-Science und BI Dienstleistung: Bei KI Projekten geht es nur zu einem kleinen Bruchteil darum, KI zu implementieren. 80%-90% der Arbeit sind: 👉 Prozesse und Daten verstehen. 👉 Domänen-Wissen verstehen. 👉 Datenqualität und Vertrauenswürdigkeit steigern. 👉 Wissen von unterschiedlichen Stakeholdern zusammenbringen. 👉 Data-Engineering und Transformation. Gib mir perfekte Daten und du hast in einer Stunde ein extrem gutes Modell. Das kann dann auch ein Werkstudent. Leider gibt es auf der Welt kein einziges Unternehmen mit perfekten Daten. Eigentlich sind die Daten immer schlecht und werden mit viel Aufwand besser, aber selten richtig richtig gut. An der Stelle braucht man dann Profis, die sich Gummistiefel anziehen und herausfinden, wie man alle Faktoren die oben genannt sind so zusammenbringt, dass die Daten nicht perfekt sondern "brauchbar" werden und die echte Welt möglichst gut beschreiben. Dann kann man darauf Modelle trainieren, die einen Mehrwert schaffen. Darum kann ein KI-Projekt bei richtigem Mindset auch nie wirklich scheitern, im Kern geht es nämlich nur zu einem Bruchteil darum sofort ein perfektes Model zu entwickeln. Man prüft die Machbarkeit und den damit verbundenen Aufwand und die Komplexität und löst auf dem Weg einen Haufen Datenprobleme. Im Optimalfall, kann man dann schnell ein Modell auf die Straße bringen, das besser performt als der Status Quo und dann kontinuierlich daran arbeiten, dieses zu verbessern (soweit der Mehrwert die Kosten rechtfertigt) oder sich auf einen aussichtsreicheren Use-Case fokussieren. Dabei profitiert man dann stark von der Ground-Work, die man sowieso leisten muss und selten schon mal jemand vollbracht hat. In den meisten Fällen purzeln auf dem Weg zum richtig guten KI-Modell auch ständig andere "Abfallprodukte" heraus, die an sich schon einen großen Mehrwert schaffen. Beispielsweise Apps, Dashboards, Analysen, Erkenntnisse, bessere Dateninfrastruktur, Demokratisierung von Daten.

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Dr. Tim Lenzen anzeigen, Grafik

    Senior Data Scientist @ Ailio GmbH

    Ailio: Ein neues Kapitel startet Diese Woche geht es für mich bei der Ailio GmbH richtig los. Letzte Woche durfte ich schon als Gast am Ailio Workation teilnehmen. Diese Woche startet dann auch die “richtige” Arbeit. Ich bin froh, dass mich das Ailio-Team so gut aufgenommen hat. Hier haben sich ab dem ersten Tag meine Eindrücke aus dem Bewerbungsprozess bestätigt. Ich freue mich sehr in Zukunft meine Fähigkeiten und Erfahrungen in spannende Projekte im Bereich #DataScience und #KI einzubringen und auf dem Weg viel Neues zu lernen. Der Wechsel bringt für mich einige Neuerungen mit: Von Produktentwicklung zu Projektgeschäft, von AWS zu Azure und von der Autofahrt zum Spaziergang ins Büro. Die Workation Woche in Dänemark war ein super Einstieg für mich. Neben den Strandspaziergängen und dem Kennenlernen des Ailio Teams standen auch viele spannende Gespräche auf dem Programm. Dabei ging es mal ganz fachlich um LLMs oder Conformal Predictions aber natürlich auch um andere Themen wie die bevorstehende NBA Saison oder was eigentlich so am CERN passiert. Diese Mischung hat mir sehr geholfen einen guten Einstieg zu haben. Nach dem entspannten Einstieg und Kennenlernen im Workation, startet nun für mich die fachliche Einarbeitung. #Databricks und #Azure stehen hier zunächst auf dem Programm, um dann gemeinsam mit dem restlichen Ailio-Team schon bald spannende Data und KI Projekte voranzubringen.

    • Kein Alt-Text für dieses Bild vorhanden
    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Stehen wir kurz vor der AGI (Artificial General Intelligence)? Das Bild von unserer Dänemark Workation lässt es vermuten 😉 Aktuell ist es in der KI-Welt wieder etwas trubelig. Mehrere Führungskräfte wie zum Beispiel die CTO Mira Murati haben OpenAI verlassen. Darüber wird gerade heiß diskutiert ... meiner Meinung nach kann man es sich sparen einen großen Kopf darum zu machen. Am Ende ist OpenAI einfach ein gutes Produkt mit viel Konkurrenz und langfristig werden LLMs sowieso immer mehr zur Commodity. Sam Altmans Gefasel von AGI und Trillionen Investments halte ich für relativ irrelevantes Marketing-Geschwafel um Investoren eine Vision zu geben. In jedem Fall wird unabhängig von irgendwelchen Änderungen in der Führungsriege OpenAI weiterlaufen wie geschnitten Brot und falls nicht ist ein LLM schnell ausgetauscht. Außerdem sind die meisten Personen bei großen Unternehmen austauschbarer als man denkt und am Ende dreht sich die Welt auch ohne sie weiter. Wir werden sehen wie es weitergeht aber eigentlich sollte das ganze nicht mehr als eine Randnotiz wert sein. Warum die Leute sich da so reinsteigern verstehe ich wirklich nicht. Naja jetzt hab ich auch einen Post dazu gemacht ....

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Aleksander Fegel anzeigen, Grafik

    Wir setzen in 1-3 Monaten maßgeschneiderte KI Use-Cases für Fertigung, Produktion & Handel um. Dein spezialisierter Partner rund um die Themen KI, Data-Science, Databricks, Azure und Analytics.

    Am 1. Oktober veranstalten wir gemeinsam mit unserem Partner ENLYZE ein Webinar zum Thema KI Use-Cases auf dem Shopfloor. Viele Maschinenbauer und produzierende Unternehmen stehen vor den Herausforderungen überhaupt erst in hoher Qualität an ihre Daten zu gelangen und diese auf einer Datenplattform bereit zu stellen. Gleichzeitig möchten Sie mit diesen Daten Geld verdienen, indem sie darauf aufbauen KI und BI Use-Cases entwickeln. Im Webinar zeigen wir, wie Unternehmen durch Enlyze Shopfloor-Daten endlich in hoher Qualität verfügbar machen und welche Möglichkeiten es gibt, auf diesen Daten Use-Cases zu entwickeln. Dafür haben wir mehrere Praxisbeispiele für KI Use-Cases mit Maschinen- und Sensordaten im Gepäck, die wir im Webinar gemeinsam durchgehen. Meldet euch über diesen Link gerne an und hört mal bei mir und Julius Scheuber rein :) https://hubs.ly/Q02QKkYB0

    • Kein Alt-Text für dieses Bild vorhanden
  • Ailio GmbH hat dies direkt geteilt

    Profil von Dr. David Geisel anzeigen, Grafik

    CDO @Ailio

    In vielen Machine-Learning-Anwendungen trainieren wir bei Ailio GmbH Modelle basierend auf Daten, die nicht stationär sind und sich über die Zeit verändern können. Dies führt dazu, dass einst trainierte Modelle möglicherweise nicht mehr optimal sind, da sich die Struktur der Daten dynamisch verändert und die Vorhersagegenauigkeit abnimmt. Daher sind *Data-Drift-Analysen* entscheidend, um die statistische Struktur der Inputdaten fortlaufend zu überwachen und wenn nötig, Modelle neu zu trainieren. Da Modelle oft auf mehreren Merkmalen basieren und somit einen multidimensionalen Parameterraum haben, müssen wir auch multivariate Drift-Detection-Methoden einsetzen. Eine Möglichkeit ist das Monitoring der Datenrekonstruktion mit PCA. Dabei geht man wie folgt vor: 1. PCA durchführen: Zuerst wird eine Hauptkomponentenanalyse (PCA) auf dem Referenzdatensatz ausgeführt, auf dem das ursprüngliche Modell trainiert wurde. Die so gewonnenen Hauptkomponenten beschreiben die interne Struktur des Datensatzes und helfen, zufälliges Rauschen zu unterdrücken. 2. Datenrekonstruktion: Anschließend wird die inverse PCA-Transformation angewandt, um die originalen Daten zu rekonstruieren. Da hierbei nicht die gesamte Varianz der ursprünglichen Daten erfasst wird, entsteht ein Rekonstruktionsfehler. Dieser wird durch die Berechnung der euklidischen Distanz zwischen den originalen Daten und den rekonstruierten Daten bestimmt. 3. Data Drift erkennen: Indem die Variabilität des Rekonstruktionsfehlers über die Zeit überwacht wird, kann data drift erkannt werden. Solange die Varianz im Bereich des Referenzdatensatzes bleibt, sind die Daten stationär. Bei signifikanten Abweichungen (z.B. mehr als drei Standardabweichungen) deutet dies auf einen Data Drift hin, und ein Neu-Training der ML-Modelle wird erforderlich. Mit dem Package [NannyML](https://lnkd.in/eW7xHVgp) kann eine solche Data-Drift-Analyse einfach umgesetzt werden. In meinem Beispiel habe ich an drei Stellen Data-Drift-Warnungen in den neuen Daten detektiert, wie im Diagramm zu sehen ist.

    • Kein Alt-Text für dieses Bild vorhanden

Ähnliche Seiten

Jobs durchsuchen