Veröffentlicht am 26. Februar 2026
News Innovation – KI als Teammitglied: Gelassenheit statt Zukunftsangst in der Produktion
Eine qualitative Untersuchung aus Augsburg zeigt: Beschäftigte erleben Künstliche Intelligenz vor allem als Unterstützung – zugleich wandeln sich Kommunikation, Verantwortung und Zusammenarbeit.
Digitale Assistenz im Arbeitsalltag
Ob Chatbots, lernfähige Robotik oder automatisierte Übersetzungen – Künstliche Intelligenz ist längst Teil industrieller Abläufe. Fällt eine Anlage aus, liefert heute ein digitaler Assistent in Sekunden die passende Anleitung, bei Bedarf direkt in der jeweiligen Muttersprache. Anwendungen reichen von Recherche und Berichterstellung über Präsentationen bis hin zu Protokollen und Qualitätskontrolle per Bildverarbeitung. Mit dem technologischen Fortschritt steigen Effizienz und Anpassungsfähigkeit. Gleichzeitig verändern sich Tätigkeitsprofile und das soziale Gefüge in den Betrieben.
Der Augsburger Geisteswissenschaftler Dr. Sebastian Rosengrün hat in vier Unternehmen 27 qualitative Interviews geführt – von Produktionsmitarbeitenden bis zur Führungsebene. Im Mittelpunkt standen nicht technische Details, sondern Wahrnehmungen, Erwartungen und mögliche Zielkonflikte. Der Ansatz: ethische und soziale Fragen frühzeitig in Einführungsprozesse einzubinden, wie es auch im Umfeld des Center for Responsible AI Technologies verfolgt wird.
Pragmatismus überwiegt – doch Teams verändern sich
Entgegen verbreiteter Befürchtungen spielt Jobangst in den befragten Werkshallen kaum eine Rolle. Viele Beschäftigte betrachten KI nüchtern und erkennen ihren Beitrag zur Wettbewerbsfähigkeit. Teilweise wird ihr Einsatz sogar als Zeichen von Innovationskraft gewertet. Langfristige Veränderungen sind allen bewusst, aktuell jedoch dominiert das Gefühl der Entlastung.
Gleichzeitig zeigt sich: KI beeinflusst die Zusammenarbeit. Wenn Systeme Meetings zusammenfassen und Aufgaben automatisch dokumentieren, spart das Zeit. Doch manche berichten, dass dadurch weniger gemeinsamer Austausch über Beschlüsse stattfindet. Die To-dos sind klar formuliert – das gemeinsame Ringen um Inhalte nimmt ab. Auch bei Auszubildenden wird beobachtet, dass eigenständige Recherche seltener wird. Zudem bleibt ein kritischer Punkt: KI kann Fehler machen. Daraus erwächst die zentrale Frage nach Verantwortung – wer haftet bei Fehlentscheidungen eines Systems?
Transparenz und klare Prozesse als Erfolgsfaktoren
Ein sensibles Thema ist die Sorge vor verdeckter Leistungsüberwachung durch Algorithmen. Rosengrün empfiehlt, Mitbestimmungsgremien früh einzubeziehen und offen über Ziele und Grenzen der Technologie zu kommunizieren. Transparenz stärke Vertrauen. Zugleich warnt er vor unreflektierter Technikeuphorie: Digitalisierung allein optimiert keine mangelhaften Abläufe. „Einen schlechten Prozess digital abzubilden, verbessert ihn nicht“, so sein Fazit.
Positive Beispiele aus der Praxis zeigen, wie es gelingen kann: Einige Unternehmen benennen interne „AI-Heros“ als Ansprechpersonen oder bieten regelmäßige KI-Sprechstunden an.
Das Projekt entstand im Rahmen des Centre for Future Production und des KI-Produktionsnetzwerks der Universität Augsburg. Es verdeutlicht, dass Künstliche Intelligenz dort nicht nur technisch, sondern ebenso aus sozial- und geisteswissenschaftlicher Perspektive betrachtet wird.
Eine qualitative Untersuchung aus Augsburg zeigt: Beschäftigte erleben Künstliche Intelligenz vor allem als Unterstützung – zugleich wandeln sich Kommunikation, Verantwortung und Zusammenarbeit.
Digitale Assistenz im Arbeitsalltag
Ob Chatbots, lernfähige Robotik oder automatisierte Übersetzungen – Künstliche Intelligenz ist längst Teil industrieller Abläufe. Fällt eine Anlage aus, liefert heute ein digitaler Assistent in Sekunden die passende Anleitung, bei Bedarf direkt in der jeweiligen Muttersprache. Anwendungen reichen von Recherche und Berichterstellung über Präsentationen bis hin zu Protokollen und Qualitätskontrolle per Bildverarbeitung. Mit dem technologischen Fortschritt steigen Effizienz und Anpassungsfähigkeit. Gleichzeitig verändern sich Tätigkeitsprofile und das soziale Gefüge in den Betrieben.
Der Augsburger Geisteswissenschaftler Dr. Sebastian Rosengrün hat in vier Unternehmen 27 qualitative Interviews geführt – von Produktionsmitarbeitenden bis zur Führungsebene. Im Mittelpunkt standen nicht technische Details, sondern Wahrnehmungen, Erwartungen und mögliche Zielkonflikte. Der Ansatz: ethische und soziale Fragen frühzeitig in Einführungsprozesse einzubinden, wie es auch im Umfeld des Center for Responsible AI Technologies verfolgt wird.
Pragmatismus überwiegt – doch Teams verändern sich
Entgegen verbreiteter Befürchtungen spielt Jobangst in den befragten Werkshallen kaum eine Rolle. Viele Beschäftigte betrachten KI nüchtern und erkennen ihren Beitrag zur Wettbewerbsfähigkeit. Teilweise wird ihr Einsatz sogar als Zeichen von Innovationskraft gewertet. Langfristige Veränderungen sind allen bewusst, aktuell jedoch dominiert das Gefühl der Entlastung.
Gleichzeitig zeigt sich: KI beeinflusst die Zusammenarbeit. Wenn Systeme Meetings zusammenfassen und Aufgaben automatisch dokumentieren, spart das Zeit. Doch manche berichten, dass dadurch weniger gemeinsamer Austausch über Beschlüsse stattfindet. Die To-dos sind klar formuliert – das gemeinsame Ringen um Inhalte nimmt ab. Auch bei Auszubildenden wird beobachtet, dass eigenständige Recherche seltener wird. Zudem bleibt ein kritischer Punkt: KI kann Fehler machen. Daraus erwächst die zentrale Frage nach Verantwortung – wer haftet bei Fehlentscheidungen eines Systems?
Transparenz und klare Prozesse als Erfolgsfaktoren
Ein sensibles Thema ist die Sorge vor verdeckter Leistungsüberwachung durch Algorithmen. Rosengrün empfiehlt, Mitbestimmungsgremien früh einzubeziehen und offen über Ziele und Grenzen der Technologie zu kommunizieren. Transparenz stärke Vertrauen. Zugleich warnt er vor unreflektierter Technikeuphorie: Digitalisierung allein optimiert keine mangelhaften Abläufe. „Einen schlechten Prozess digital abzubilden, verbessert ihn nicht“, so sein Fazit.
Positive Beispiele aus der Praxis zeigen, wie es gelingen kann: Einige Unternehmen benennen interne „AI-Heros“ als Ansprechpersonen oder bieten regelmäßige KI-Sprechstunden an.
Das Projekt entstand im Rahmen des Centre for Future Production und des KI-Produktionsnetzwerks der Universität Augsburg. Es verdeutlicht, dass Künstliche Intelligenz dort nicht nur technisch, sondern ebenso aus sozial- und geisteswissenschaftlicher Perspektive betrachtet wird.