Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
UP-FP03: Human AI
Zeit:
Montag, 01.09.2025:
14:00 - 15:30

Chair der Sitzung: Holger Kälble
Ort: Raum 2/N112 (Zentrales Hörsaal- und Seminargebäude)

Kapazität: 256 Personen

Demokratisierung von KI: Nutzerfreundliches Machine Learning für die Industrie

Katrin Götzer, Henning Frechen, Sai Rahul Kaminwar, Jonas Meier, Markus Schatzl, Liza Obermeier, André Ebert

Finde deine Stimme: UX-Writing als Erfolgsfaktor für KI-Assistenten

Eilika Freund

Menschengerechte AI – Was sollte ethische Chatbots ausmachen? Ein Positionspapier

Clemens Lutsch, Veronika Langner, Leon Schmidt, Simon Harhues, Robert Zinner


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Demokratisierung von KI: Nutzerfreundliches Machine Learning für die Industrie

Katrin Götzer1, Henning Frechen2, Sai Rahul Kaminwar2, Jonas Meier3, Markus Schatzl3, Liza Obermeier4, André Ebert4

1eresult GmbH, Part of MAI Group, Deutschland; 2Fraunhofer-Institut für Integrierte Schaltungen IIS; 3senswork GmbH; 4inovex GmbH

Der Einsatz von KI in der industriellen Fertigung wird zunehmend wichtiger, um Prozesse zu optimieren und Entscheidungen zu unterstützen. Für die produktive Nutzung spezialisierter KI-Modelle sind neben Daten und Algorithmen geeignete Softwaretools und Workflows erforderlich (MLOps). Aktuelle MLOps-Software richtet sich meist an KI-Expert:innen und ist für Laien schwer zugänglich. Ziel unserer Arbeit ist es, Konzepte und Design Guidelines für MLOps-Systeme zu entwickeln, die auch Domänenexpert:innen ohne tiefe KI-Kenntnisse befähigen, eigene Modelle zu erstellen und zu betreiben. Wir präsentieren drei industrielle Use Cases, die durch Nicht-KI-Expert:innen bearbeitet werden sollen, sowie entwickelte Personas, Aufgabenmodelle und Anforderungen als Grundlage benutzerfreundlicher MLOps-Systeme. Daraus abgeleitete Design Guidelines und erste prototypische Umsetzungen werden vorgestellt.



Finde deine Stimme: UX-Writing als Erfolgsfaktor für KI-Assistenten

Eilika Freund

MaibornWolff

Wenn KI mit Menschen spricht, zählt jedes Wort. Generative KI-Assistenten sind dann erfolgreich, wenn sie nicht nur funktional, sondern auch sprachlich überzeugen. Der Vortrag zeigt, warum UX-Writing in diesem Kontext mehr umfasst als Microcopy - und warum es unverzichtbar ist, damit LLMs wiedererkennbar und nutzerzentriert kommunizieren.

UX-Writing für KI-Anwendungen ist anders: Sprache ist hier nicht nur unterstützendes, sondern das zentrale Element im User Interface. Neben statischen Texten entstehen dynamische Dialoge. Eine klar definierte Markenstimme gewährleistet eine konsistente User Experience. Diese entsteht idealerweise im Zusammenspiel von Marketing, UX-Writing und weiteren Disziplinen - und vereint Nutzerbedürfnisse und Markenidentität.

Ein Werkstattbericht aus einem laufenden KI-Projekt veranschaulicht, wie das in der Praxis gelingen kann.



Menschengerechte AI – Was sollte ethische Chatbots ausmachen? Ein Positionspapier

Clemens Lutsch1, Veronika Langner2, Leon Schmidt3, Simon Harhues4, Robert Zinner5

1swohlwahr GmbH & Co. KG, Deutschland; 2Verola Design, Ingolstadt; 3BMW Group, München; 4Syntegon Technology GmbH, Crailsheim; 5UX2B GmbH, Jena

In der Presse, auf Webseiten, beim Einkaufen, am Telefon, in der Werbung: Überall begegnen wir künstlichen intelligenten Systemen oder den Artefakten, die durch diese erzeugt wurden. Dabei ist es für uns als handelnde, in der Interaktion investierte Menschen gar nicht so einfach zu erkennen, ob das Gegenüber ein Mensch ist oder ein System, das trainiert wurde, wie ein Mensch zu wirken. Wenn Letzteres der Fall ist: Warum wurde entschieden, ein System so zu konzipieren, dass es als Mensch wahrgenommen wird und nicht als künstliche Entität? Wäre es nicht transparenter und damit auch ethischer, dass wir künstliche Systeme als solche erkennen können? Was bewegt Menschen, die Systeme planen, konzipieren, trainieren, implementieren und betreiben zu der Entscheidung, einen Menschen zu simulieren, anstatt echte Menschen zu beschäftigen? Dieses Positionspapier möchte diese und ähnliche Fragen beleuchten.