Wie nützt KI in Gesundheit, Bildung und Industrie?

    Expertinnen und Experten vom Bamberger Zentrum für Künstliche Intelligenz stehen Medienschaffenden für Fragen zur Verfügung.

    Die Otto-Friedrich-Universität Bamberg ist das bedeutendste KI-Zentrum der Region. Um die zahlreichen Aktivitäten im Bereich Künstliche Intelligenz (KI) zu bündeln und zu vernetzen, haben sich die acht KI-Professuren an der Universität sowie weitere Professuren mit starken Bezügen zur KI im Bamberger Zentrum für Künstliche Intelligenz (BaCAI) zusammengeschlossen. Das BaCAI will ein Leuchtturm der KI-Expertise und ein Magnet für regionale, nationale und internationale Talente und Industrien sein, indem es eine herausragende Bildungsumgebung mit erstklassiger Forschung und unternehmerischer Erfahrung kombiniert. Hier stellen sich die KI-Professuren mit ihrer Forschung vor und beantworten einige Fragen rund um KI. Sie stehen Journalistinnen und Journalisten mit ihrer Expertise zur Verfügung:

    Kann man die Existenz Gottes mit dem Computer beweisen? Ist das interessant auch für KI-Ethik?

    Prof. Dr. Christoph Benzmüller, Lehrstuhl für KI-Systementwicklung:
    „Gott mit dem Computer nachweisen? Nein, so einfach geht das nicht. Aber wir konnten zumindest nachweisen, dass philosophische Argumentationen zu diesem Thema korrekt sind. In der Philosophie gibt es nämlich verschiedene Versuche, ontologisch zu beweisen, dass es Gott gibt. Ich habe mich gefragt: Kann man das auch mit dem Computer machen? In unseren Arbeiten werden die Annahmen und die einzelnen Schritte dieser Argumente zur Existenz Gottes formal-logisch im Computer abgebildet, und diese Argumente kommen dann zu dem Schluss, dass es ein Wesen gibt, über dessen Größe man nicht hinausdenken kann. Wir konnten einige solcher Argumente mit dem Computer als korrekt nachweisen, bei einzelnen Varianten haben wir aber auch Fehler entdeckt. Das ist aber nur ein kleiner Teil meiner Forschung. Die gleiche, logik-basierte Herangehensweise verwenden wir am Lehrstuhl auch für wichtige andere Problemstellungen – insbesondere zur Mechanisierung ethisch-rechtlichen Schließens im Computer, etwa zur Kontrolle von autonomen KI-Systemen.“

    E-Mail: christoph.benzmueller(at)uni-bamberg.de

    Fachwissen zu:

    • Automatisierung von rationalem Argumentieren und normativem Schließen im Computer
    • Universelle Wissensrepräsentation
    • Computationale Metaphysik
    • Mechanisierung von Grundlagen in der Mathematik, Philosophie und Informatik
    • KI und Ethik/Recht

    Wie kann ein Computer Emotionen erkennen?

    Prof. Dr. Roman Klinger, Lehrstuhl für Grundlagen der Sprachverarbeitung:
    „Sprache prägt unser eigenes Leben und das Zusammenleben mit anderen Menschen. Wir wollen dem Computer beibringen, Fakten aus Texten zu verstehen und wiederzugeben, aber auch Emotionen zu erkennen, die implizit mitschwingen. Das alles machen wir mit Methoden des maschinellen Lernens. Es ist zum Beispiel bekannt, dass Emotionen Einfluss darauf haben können, wie überzeugend ein Argument ist. Das kann man sich auf positive, aber auch auf negative Art und Weise zu Nutze machen. Wir wollen ein System bauen, das emotionale Aspekte aus Argumenten automatisch entfernt, sodass das Kernargument übrigbleibt. Unsere Erkenntnisse können etwa dafür genutzt werden, Warnsysteme in soziale Medien zu integrieren, die Nutzerinnen und Nutzer vor einer möglicherweise unbewussten Beeinflussung mit Hilfe von Emotionen warnen.“

    E-Mail:roman.klinger(at)uni-bamberg.de

    Fachwissen zu:

    • Maschinelles Lernen
    • Natural Language Processing
    • Informationsextraktion aus Nachrichtentexten, sozialen Medien und Wissenschaftlichen Texten
    • Emotionen
    • Fact Checking

    Wie kann KI die Präzision und Geschwindigkeit medizinischer Diagnosen verbessern?

    Prof. Dr. Christian Ledig, Lehrstuhl für Erklärbares Maschinelles Lernen:
    „Unsere Forschung konzentriert sich auf die Entwicklung von KI-Algorithmen für die quantitative Bildanalyse und Entscheidungsunterstützung. Dabei legen wir besonderen Wert auf die Effizienz und Robustheit dieser Systeme, um ihre Zuverlässigkeit zu gewährleisten. Durch die Interpretierbarkeit und Unsicherheitsschätzung in KI möchten wir sicherstellen, dass die Entscheidungen dieser Systeme nachvollziehbar und verlässlich sind. So bieten sich beispielsweise in der Medizin vielfältige Anwendungsmöglichkeiten wie die Unterstützung von Radiologen bei der Auswertung von Bildern, um präzisere, objektivere und schnellere Diagnosen zu ermöglichen. Wir sind davon überzeugt, dass KI dazu beitragen kann, die Diagnose- und Behandlungsprozesse in der Medizin zu verbessern und medizinische Expertise auch in Regionen zugänglich zu machen, in denen Fachkräfte knapp sind. Darüber hinaus arbeiten wir an generativen KI-Methoden, als auch der Unterstützung von KI-Start-ups.“

    E-Mail: christian.ledig(at)uni-bamberg.de

    Fachwissen zu:

    • KI für quantitative Datenanalyse und Entscheidungsunterstützung, insbesondere zur Bildanalyse in der Medizin
    • (Daten-)Effiziente und Robuste KI
    • Interpretierbarkeit und Unsicherheitsschätzung in KI
    • Evaluierung und Regulierung von KI
    • Generative KI
    • Beratung und Unterstützung von KI-Start-ups

    Sind KI-generierte Fake News eine Bedrohung?

    Prof. Dr. Milad Mirbabaie, Lehrstuhl für KI-Engineering in Unternehmen:
    „Ein Werbetreibender nutzte ein Deepfake-Video mit Tom Hanks, um ohne seine Zustimmung Zahnarztpläne zu bewerben, oder der Papst mit übergroßer weißer Daunenjacke: KI-generierte Bilder haben in den Sozialen Medien viel Aufmerksamkeit erregt. Durch die einfache und schnelle Generierung von überzeugenden Fehlinformationen ist generative KI nicht immer witzig, sondern kann zu einer Bedrohung werden und ein noch nie dagewesenes Maß an öffentlicher Verwirrung erzeugen. Wir versuchen dem mit unserer Forschung entgegenzuwirken. Wir wollen Nutzerinnen und Nutzer widerstandsfähiger gegen generative KI-Fehlinformationen machen.“

    E-Mail:milad.mirbabaie(at)uni-bamberg.de

    Fachwissen zu:

    • KI-basierte Systeme (bspw. Chatbots) in Organisationen und Zukunft der Arbeit
    • Human-AI Collaboration
    • Krisenmanagement mit Social Media
    • KI und Ethik
    • KI und Nachhaltigkeit

    Inwiefern lohnen sich Roboter auch für kleine und mittlere Unternehmen (KMU)?

    Prof. Dr. Markus Rickert, Lehrstuhl für Multimodal Intelligent Interaction:
    „In großen Unternehmen werden die Roboter für eine Produktionslinie oft ein halbes Jahr lang mit einem Team aus 50 Leuten programmiert. Dann läuft die Maschine fünf Jahre lang und produziert Tag für Tag den gleichen Gegenstand. KMU haben am Tag 20 verschiedene Aufträge, die alle inhaltlich unterschiedlich sind. Wenn sie nur zwei Wochen bräuchten, um den Roboter entsprechend zu programmieren, wäre das schon ein enormer Verlust für die Unternehmen. Damit sich Roboter auch für KMU lohnen, sind intelligente Systeme sowie ein Verständnis für den Prozess und eine optimale Mensch-Roboter-Interaktion erforderlich. Wie wir das erreichen können, daran forsche ich.“

    E-Mail: markus.rickert(at)uni-bamberg.de

    Fachwissen zu:

    • Robotik und Mensch-Roboter-Interaktion
    • Serviceroboter und Smart Factories
    • Bahn- und Bewegungsplanung
    • Advanced Systems Engineering
    • Künstliche Intelligenz und autonome Systeme

    Warum muss maschinelles Lernen erklärbar sein?

    Prof. Dr. Ute Schmid, Lehrstuhl für Kognitive Systeme:
    „Wir in Bamberg wollen mit unserer Forschung KI-Methoden und Anwendungen entwickeln, die den Menschen unterstützt und nicht ersetzt.  In kritischen Bereichen wie der medizinischen Diagnostik oder der industriellen Qualitätskontrolle ist es wichtig, dass die Entscheidungen von mit maschinellem Lernen aufgebauten Modellen nachvollziehbar und korrigierbar sind. Forschung im Bereich erklärbare KI unterstützt den Aufbau von kalibriertem Vertrauen in KI-Systeme. Die Kombination von wissensbasierten Ansätzen der KI mit maschinellem Lernen (neurosymbolische KI) ermöglicht mehr Datensparsamkeit und robustere Modelle. Beispielsweise entwickeln wir in einem Verbundprojekt ein Modell, das eine Einschätzung abgeben kann, welche Stufe eines Darmkrebses vorliegt. Medizinerinnen und Mediziner können sich vom System erklären lassen, aufgrund welcher Information es eine Einschätzung getroffen hat. Darauf aufbauend kann die Entscheidung, wenn nötig, korrigiert und das Modell entsprechend angepasst werden.“

    E-Mail:ute.schmid@uni-bamberg.de

    Fachwissen zu:

    • Erklärbare Künstliche Intelligenz und interaktives maschinelles Lernen
    • Interpretierbares maschinelles Lernen
    • Kombination von wissensbasierter KI und maschinellem Lernen (neurosymbolische KI)
    • Induktives Programmieren
    • KI in der Bildung

    In welchen Bereichen des Lebens sind Dialogsysteme nützlich?

    Prof. Dr.-Ing. Stefan Ultes, Lehrstuhl für Sprachgenerierung und Dialogsysteme:
    „Dialogsysteme kennen wir alle zum Beispiel als Sprachassistenten wie Alexa oder Siri aber auch aktuell durch Produkte wie ChatGPT oder Gemini. Sie finden auch in anderen Bereichen Anwendung: Menschen mit Behinderung könnten dadurch etwa Aufzüge und Fahrkartenautomaten nutzen oder einen Rollstuhl bedienen. Im Auto dient ein Dialogsystem als interaktiver Stadtführer und medizinische Geräte können durch Sprachassistenten gesteuert werden. Grundsätzlich ermöglichen diese Systeme einen intuitiven und natürlichen Zugang zu technischen Systemen mittels Sprache. Wichtig ist, dass wir Menschen die Interaktion mit den Systemen als natürlich empfinden.

    Die Forschung des Lehrstuhls befasst sich mit der Frage, wie natürliches Verhalten eines Systems im Dialog technisch ermöglicht werden kann, damit Nutzerinnen und Nutzer ihre Anliegen intuitiv und auf den Inhalt fokussiert vorbringen können, ohne durch das Systemverhalten gestört zu werden. Dabei kommen Technologien und Methoden wie neuro-symbolische KI, Reinforcement Learning oder kontrollierbare große Sprachmodelle zum Einsatz.“

    E-Mail:stefan.ultes(at)uni-bamberg.de

    Fachwissen zu:

    • Dialogsysteme und Maschinelles Lernen
    • Große Sprachmodelle
    • Conversational AI
    • Natürlichkeit von Dialoginteraktion

    Weiterführende Informationen für Medienvertreterinnen und -vertreter:

    Medienkontakt:
    Hannah Fischer
    Pressestelle/Pressereferentin
    Tel.: 0951/863-1445
    redaktion.presse@uni-bamberg.de