Künstliche Intelligenz braucht eine verantwortungsvolle Regulierung: Gesetzgeber und Aufsicht müssen den Spagat schaffen zwischen der Ermöglichung von Innovation und der Übernahme von Innovationsver­antwortung. Das ist das Fazit des ersten Teils eines Symposiums der Bayerischen Landeszentrale für neue Medien (BLM) und des Instituts für Urheber- und Medienrecht (IUM), das gestern in der BLM begonnen hatte und heute im Münchener Literatur­haus fort­ge­setzt wird.

„Wir wollen uns dem Thema KI bewusst ergebnisoffen nähern. Das bedeutet, Künstliche Intelligenz nicht nur als drohende Gefahr für den Menschen zu sehen, sondern auch ihre Chancen zu nutzen.“ Diesem Ansatz von BLM-Präsident Dr. Thorsten Schmiege wurde das inter­dis­ziplinär besetzte Symposium mehr als gerecht, wie eine Reihe von Anwendungsbeispielen zeigten. Zu den Chancen zählen zum Beispiel automatisierte Prozesse zur Arbeitserleichterung. Als Herausforderungen nannte Schmiege u. a. die Möglichkeiten der Meinungsmanipulation und die Gefahr des Vertrauensverlustes in die Qualität der journalistischen Inhalte, sofern keine ausreichende Kontrolle gewährleistet ist.

Prof. Dr. Peter Buxmann (TU Darmstadt) versuchte, die „Blackbox“ KI zu entzaubern. Beim maschinellen Lernen gehe es immer darum, dass Algorithmen Zusammenhänge in Daten erkennen und herstellen. Entscheidend seien die Trainingsdaten, mit denen KI-Anwendungen wie Chat GPT gefüttert werden. Seine Sorge: „Die Innovation passiert in den USA und wir teilen KI in fünf Risikoklassen ein.“

Diese Sorge teilten die Medienrechtsexperten allerdings nicht. Prof. Dr. Mark D. Cole vom Institut für Europäisches Medienrecht betonte die Notwendigkeit, auf europäischer Ebene Grundregeln für KI zu finden, wie sie im Artificial Intelligence Act bereits entworfen worden sind. Diese Regeln sollten sektorspezifisch, wie z. B. für den Medienbereich, auf nationaler Ebene weiterentwickelt werden. Er warnte vor einer zu geringen Regulierungsdichte, die dann wie bei der E-Commerce-Richt­linie viel zu spät erweitert werde.

Prof. Dr. Jürgen Kühling von der Universität Regensburg benannte das Problem noch einmal deutlich: „KI hat den Anschein von menschlicher Intelligenz. Wir wissen aber nicht, ob alles gefakt ist.“ Kühling hält den Einsatz von KI-Tools, wie sie z. B. die Medienanstalten für Aufsichtsaufgaben nutzen, zur Durchsetzung des Rechts für sinnvoll. Er sieht aber auch die Notwendigkeit, dass Unternehmen eine automatisierte Kontrolle einsetzen. Es müsse uns unbedingt gelingen, die „Informationsasymmetrie zwischen Privatwirtschaft und Verwaltung“ abzubauen.

Weitere Informationen zum Symposium finden Sie hier.

Firmenkontakt und Herausgeber der Meldung:

Bayerische Landeszentrale für neue Medien
Heinrich-Lübke-Str. 27
81737 München
Telefon: +49 (89) 63808-0
Telefax: +49 (89) 63808-340
http://www.blm.de

Ansprechpartner:
Bettina Pregel
Telefon: (089) 63 808-318
E-Mail: bettina.pregel@blm.de
Für die oben stehende Pressemitteilung ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel