Design Thinking, Collaboration, AI in Engineering und Digital Twins

Gemeinsam die Zukunft des digitalen Engineerings vorantreiben: Das ist Ziel des Zukunftssymposiums 2024 „Kollaboratives digitales Engineering“ der Offenen Digitalisierungsallianz Pfalz. Anfang Mai kamen verschiedene Akteure aus Industrie und Forschung zusammen, um sich zu den Themen Design Thinking, Collaboration, AI in Engineering und Digital Twins auszutauschen.

Vom 7. Mai bis 20. Juni 2024 fanden die Veranstaltungen des Zukunftssymposiums „Kollaboratives Digitales Engineering“ der Hochschule Kaiserslautern und der Rheinland-Pfälzischen Technischen Universität in Kaiserslautern statt.

Neben dem Vizepräsidenten der Hochschule Kaiserslautern, Prof. Schäfer, begrüßten Prof. Göbel und Prof. Wallach als Sprecher des Innovationsbereichs die Teilnehmer und führten durch das Programm. Inhaltlich konzentrierten sich die Keynote-Beiträge, Vorträge, Workshops und Demonstrationen auf die Themenbereiche „Design Thinking“, „Collaboration“, „AI in Engineering“ sowie „Digital Twins“.

An der Auftaktveranstaltung im „engineering 4.0 lab“ der Offenen Digitalisierungsallianz Pfalz in Kaiserslautern und den darauf folgenden Online-Veranstaltungen nahmen mehr als 140 Fachexperten und Führungskräfte aus Industrie, Wirtschaft und Forschung teil. Das Symposium bot eine Plattform mit vielfältigen Formaten zur Information und zum Austausch zu Forschungstrends und künftigen Innovationen im Bereich des Digital Engineerings.

Mit dabei waren auch Prof. Dr. Dieter Wallach, Prof. Dr.-Ing. Jan Conrad und Eric Gaida, die diesen Innovationsbereich an der Hochschule Kaiserslautern verantworten. Sie leiteten inhaltlich ein und moderierten die Vorträge, Workshops und Live-Demonstrationen zu kollaborativen Methoden wie beispielsweise Design Thinking sowie zur Praktikabilität und Umsetzbarkeit von KI-Anwendung. Dabei zeigte das Team mit seinen Forschungsergebnissen das Potential einer Open-Source-Lösung eines sogenannten Large Language-Models (LLM), welches die Grundalge für KI-Anwendungen bildet. Dieses LLM bietet den Vorteil, dass es lokal und demnach auch offline beispielsweise in einem Unternehmen anwendbar ist. So zeichnet es sich in Bezug auf Zuverlässigkeit sowie Schutz sensibler Unternehmensdaten ganz besonders aus. „Wir zeigen, wie man mit einem vortrainierten LLM auf lokalen Maschinen arbeiten und die eigenen Dokumente im geschützten Umfeld in die KI einlesen kann“, erklärt Jan Conrad.

Einen weiteren Vorteil stellt Eric Gaida heraus: „Anhand von drei Systemen, auf denen die Anwendung läuft – Einplatinenrechner, leistungsfähiger Rechner sowie KI-Rechner – zeigt sich, dass man mit den vortrainierten LLM nicht unbedingt große und teure Rechner braucht, um KI lokal einzusetzen.“ So lässt sich mit einer lokalen Anwendung sensible Entwicklungsarbeit im geschützten Umfeld KI-unterstützt einsetzen.

Die durchweg positive Resonanz und das große Interesse der Besucher unterstrichen die Relevanz und Aktualität der behandelten Themen.