📼 In unserer neuen, kostenfreien #Webinar-Reihe demonstrieren wir die leistungsstarke und effiziente #Datenerfassung, #Datenauswertung und übergreifende #Datennutzung mit dem #iba-System. 🔗 Nach einer Einführung ins iba-System zeigen wir anhand eines anschaulichen Beispiels die Funktionsweise unserer #Toolkette mit Konnektivität zur #SPS, Datenerfassung und -aufzeichnung, Langzeit-Trending sowie die interaktive und automatisierte Datenanalyse. 👍🏼 Das Ganze ist auf unserem #YouTube-Kanal zu finden: like, subscribe, share
Beitrag von iba AG
Relevantere Beiträge
-
Neuerscheinung https://lnkd.in/gx9w6y2R Mit der fortschreitenden Digitalisierung in der Prozessindustrie, bekannt als Industrie 4.0, werden bisher analoge Prozesse und Daten in die digitale Sphäre überführt. Die Implementierung standardisierter Schnittstellen ermöglicht den nahtlosen Datenaustausch während der Prozesslaufzeit. Dieser Paradigmenwechsel resultiert in einem signifikanten Anstieg der verfügbaren Daten, die automatisiert von Algorithmen evaluiert werden können. Diese Entwicklung eröffnet innovative Perspektiven in Bezug auf die Prozessentwicklung und -optimierung. Ein entscheidendes Konzept ist die Etablierung digitaler Zwillinge. Diese mathematischen Modelle unterstützen nicht nur in den frühen Phasen der Prozessentwicklung, sondern ermöglichen auch eine kontinuierliche Echtzeitüberwachung. Etwaige Abweichungen können so erkannt, bewertet und im Idealfall während der Prozesslaufzeit minimiert werden. Im Rahmen dieser Arbeit wird eine modulare Prozessautomatisierung für die Herstellung biopharmazeutischer Produkte vorgestellt, die eine einfache Integration digitaler Zwillinge und Prozessanalysetechnologien (PAT) ermöglicht. Die Vorteile dieses Ansatzes werden anhand der Integration von PAT und eines digitalen Zwillings am Beispiel der wässrigen zwei-phasen Extraktion erläutert. Zusätzlich wird eine Methodik zur Bestimmung von Prozessparametern mittels künstlicher neuronaler Netze am Beispiel der Chromatographie präsentiert. Ziel dieser Methodik ist es, die Entwicklungs- und Aktualisierungsdauer der Prozessmodelle zu reduzieren.
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Reminder: Künstliche Intelligenz in der Praxis: Chancen und Lösungen für Anwender und Anbieter Erfahre, wie KI-Technologien in der Praxis wirklich funktionieren und welche Chancen sie für Unternehmen und Anwender bieten! Melde dich jetzt an und tauche ein in spannende Vorträge und praxisnahe Beispiele. Jetzt anmelden!
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Auf der #PROKOM hören wir aktuell mehr von uNaice GmbH über die automatisierte Datenaufbereitung, -normierung und -anreicherung. Besonders spannend ist die automatisierte Textproduktion in 110 Sprachen und der Einsatz von KI zur Verbesserung von Datenqualität, Texten und Übersetzungen. Die Integration in bestehende Systeme wird ebenfalls beleuchtet. Die Live-Demo ist ein echtes Highlight und zeigt die praktische Anwendung dieser innovativen Technologien. #PIM #KI #Datenqualität #Automatisierung #Konferenz
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Wie funktionieren Datenlogger? Datenlogger sind unverzichtbare Werkzeuge in vielen Branchen. ➡ Grundlagen: Alle Datenlogger verfügen über einen oder mehrere Sensoren, die regelmäßig physikalische Größen messen. Diese Messwerte werden entweder auf einem internen Speicher abgelegt oder direkt an einen Empfänger übermittelt. ➡ Digitale Schnittstellen: Moderne Datenlogger nutzen digitale Schnittstellen zur Datenübertragung. So können Messwerte per Funk oder über USB-Datenlogger ausgelesen werden. ➡ Auswertung: Die erfassten Daten werden mittels spezialisierter Software ausgewertet und präsentiert. Dies ermöglicht eine detaillierte Analyse der Messdaten an nahezu jedem PC. Die Software kann zudem Warnhinweise geben, wenn Grenzwerte überschritten werden oder z.B. die Kühlkette unterbrochen wurde. Fazit: Datenlogger sind vielseitige und unverzichtbare Werkzeuge für eine präzise und zuverlässige Datenerfassung und -analyse. Sie möchten gerne mehr darüber erfahren? Vereinbaren Sie noch heute Ihr Expertengespräch. 👉📞: https://lnkd.in/dY7JU_3X Wir freuen uns auf Sie! Ihr Xylem/ebro Team Ingolstadt #Datenlogger #Datenerfassung #medizin #pharma #food #industrie
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🚀 Neues Projekt am ISW🚀 Wertschöpfungsnetzwerk-Modellierung für die software-definierte resiliente Produktion der Zukunft Im Rahmen des Teilprojekts soll ein Datenmodell erarbeitet werden, dessen Aufgabe die Strukturierung und Bereitstellung relevanter Daten der Produktionssysteme und Produkte im Zusammenhang eines Wertschöpfungsnetzwerkes abbildet. Grundlage dafür können Verwaltungsschalen und Datenraum-Konnektoren mit entsprechenden Vorarbeiten in anderen Projekten wie SDM4FZI, Catena-X oder FluPro (https://lnkd.in/eMXgry8R) bilden. Die flexible Modellierung soll mithilfe von Use-Cases zeigen, welche Vorteile eine solche Betrachtung eines Wertschöpfungsnetzwerks hinsichtlich der Resilienz und Wirtschaftlichkeit bringen kann. Dabei können unter anderem die Verfügbarkeit neuer Technologien oder die Nutzung alternativer Komponenten bei eingeschränkter Verfügbarkeit, in einer Orchestrierung realisiert werden. Darüber hinaus soll eine Spezifikationsvorschrift für Industrie-4.0-Services erarbeitet werden, welche ein einheitliches Applikationsprofil für Services zur Orchestrierung des Wertschöpfungsnetzwerkes ermöglicht. Der Mensch bleibt weiterhin zentraler Zielgeber und Wissensträger der Orchestrierung. Die entwickelten Modelle dienen als Basis im Projekt, um in einem weiteren Teilprojekt in ein System zur Orchestrierung des Wertschöpfungsnetzwerkes integriert zu werden und anhand der Demonstratoren weiterer Teilprojekte validiert zu werden. Das ISW Universität Stuttgart übernimmt hierbei die Teilprojektleitung im Bereich der Modellierung von Wertschöpfungsnetzwerken und Industrie-4.0-Services. Lesen Sie mehr dazu: https://lnkd.in/ehh9akFE Kontakt: Manuel Zuern, David Dietrich Projektpartner: Bosch | Mercedes-Benz Group AG | DXC Technology | TRUMPF | Pilz | Fraunhofer IPA | BÄR Automation GmbH | ARENA2036 #produktion #zukunft #industrie40 #software #modellierung #verwaltungsschale
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Vertrauen durch Prüfung: Der KI-Prüfkatalog für sichere Anwendungen Die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) birgt nicht nur Chancen, sondern auch spezifische Risiken. Besonders in sensiblen Bereichen wie der medizinischen Diagnostik oder dem autonomen Fahren ist die Vertrauenswürdigkeit von KI-Anwendungen entscheidend. ➡️ Risikobasierte Prüfung von KI Der KI-Prüfkatalog des Fraunhofer IAIS bietet eine strukturierte Anleitung, um KI-Anwendungen entlang der Dimensionen Fairness, Autonomie, Transparenz, Verlässlichkeit, Sicherheit und Datenschutz zu bewerten. Durch eine umfassende Risikoanalyse und klare Zielvorgaben können Entwickler und Prüfer sicherstellen, dass KI-Systeme den höchsten Standards entsprechen. ➡️ Massnahmen zur Risikominimierung Durch gezielte Massnahmen entlang des gesamten Lebenszyklus einer KI-Anwendung können die festgelegten Ziele erreicht und das Vertrauen in die Technologie gestärkt werden: ◾ Risikoanalyse in allen Dimensionen ◾ Festlegung von messbaren Zielvorgaben ◾ Umsetzung von Massnahmen zur Qualitätsverbesserung ➡️ Vertrauenswürdige KI für die Zukunft Nur durch die Einhaltung strikter Qualitätsstandards kann KI ihr volles Potenzial entfalten – sei es in der Wirtschaft oder in der Gesellschaft. ________________________________ #egov #egovdaily #govtech
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Was ich heute zum Thema #Technologie und #Innovation lese. Ein Beitrag von #: Industrie-Displays: Data Modul setzt auf Force Touch - invidis Bestimmt relevant für einige Kollegen bei #Schattdecor und #MyMineralMix !
Was ich heute zum Thema #Technologie und #Innovation lese. Ein Beitrag von #: Industrie-Displays: Data Modul setzt auf Force Touch - invidis Bestimmt relevant für einige Kollegen bei #Schattdecor und #MyMineralMix !
invidis.de
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
INSIDE KIOPTIPACK: „DEMONSTRATOR 2“ – DIE DATENSCHNITTSTELLE Ein Innovationslabor der BMBF Fördermaßnahme KI Hub Das Innovationslabor KIOptiPack arbeitet an einer fortschrittlichen Dateninfrastruktur zur Integration von Prozess- und Produktionsdaten für den Kunststoff-Kreislauf. Mit dem Microservice-Framework 'FastIot' und der in Entwicklung befindlichen Anbindung an den European Data-Space Connector (EDC) im dezentralen Gaia-X Kontext wird eine sichere und effiziente Datenintegration gewährleistet. Die entwickelte Domänenontologie ermöglicht eine semantisch korrekte Annotierung der Daten, während die Auswahl geeigneter Schnittstellen und Geräte die automatisierte Datenerfassung und Bereitstellung unterstützt. Ziel ist es, eine praktische und sichere Nutzung nicht nur von reinen Sensor-Daten beliebiger Granularität und Struktur sondern auch bis hin zu KI-Modellen zu ermöglichen und die Interoperabilität der Ontologie kontinuierlich zu verbessern. Erfahren Sie hier mehr über den Datenraum des KI-Hubs https://lnkd.in/dvVs4YBC Mehr Informationen über das Innovationslabor KIOptiPack und unseren Forschungsaktivitäten innerhalb der BMBF Fördermaßnahme KI Hub erhalten Sie hier https://lnkd.in/dyTbcF2d
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Mit dem Thema KI in der Messkontrolle an Zerspanungsmaschinen gelangen wir in ganz neue Dimensionen. Mit einem Vortrag von Dr. Semir Maslo wird aufgezeigt, dass Big Data in Manufacturing GmbH neue Türen in der Qualitätssicherung aufstößt. 🔔 Virtual Quality Control Aus den aufgezeichneten Prozessdaten durch die Edge werden mit Algorithmen der künstlichen Intelligenz und Machine Learning digitale Modelle generiert. Zum Training der Modelle bzw. zur Berechnung der Model-Parameter werden konventionelle Protokolle der Messmaschinen verwendet. Im Online-Betrieb wird das Model genutzt für die Qualitätsprognose der Fertigungs-Toleranzen, die automatisierte Ursachen-Wirkungsanalyse, die Echtzeit-Parameter Adaption für Null-Fehler-Produktion und die automatisierte Ursachen-Wirkungsanalyse der Produktivität. Die Machine Learning-Systeme sind lernfähig und adaptieren sich über längere Zeiträume immer besser an die sich ständig ändernden Produktionsbedingungen. Neugierig❔ Alles in der DEMOFABRIK-Z4 beim QualityHUB 2024. Es sind noch Plätze frei. ▶ 20. - 21.03.2024 in Werdohl ✔ Anmeldung und komplettes Programm hier: https://lnkd.in/empUV3PK
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
1.781 Follower:innen
CEO bei iba AG
2 MonateSehr empfehlenswert