Wenn ihr dieses Zeichen ^ irgendwo seht, hat das etwas zu bedeuten. Es könnte heißen, dass diesen Text eine Maschine geschrieben hat, die mit "künstlicher Intelligenz" (KI) ausgestattet ist. Sie kann verständliche deutsche Sätze formulieren, hat Zugriff auf eine riesige Datenbank und kann Anweisungen rasch befolgen. Leider ist es (noch) nicht üblich, solche Kennzeichnungen zu machen. Sehr wohl üblich ist es, die KI immer öfter einzusetzen. Die ersten Kinderkrankheiten sind beseitigt, Qualität und Aktualität von Apps wie Neuroflash, Jarvis oder Mindverse sind verblüffend. Doch das alles ist erst der Anfang.
Auf dem letzten Weltwirtschaftsforum in Davos im Dezember drehte sich alles um KI, die Anwendungen und Gefahren. Kein geringerer als Sam Altman, als Chef von Open AI einer der "Erfinder" der Tools, die Texte schreiben, Bilder malen, Musik machen, Computer programmieren können, warnte ausdrücklich vor den Risken und dass die Erfindung auch Kontrolle braucht. Erste Auswüchse sind bereits sichtbar: So generierte eine KI künstliche Nacktfotos von Taylor Swift für den Social-Media-Kanal X, die nach einem Aufschrei wieder gelöscht wurden. Im Gaza-Krieg wurde ein Foto eines von Hamas-Terroristen verbrannten Babys als "Fake News" kritisiert, weil es von einer KI erstellt wurde. Ob das wirklich stimmte, wurde nie ganz geklärt. Ein Vorgeschmack auf künftige Diskussionen...
Milliardenstreit um das Urheberrecht in den USA
Die New York Times hat eine Milliardenklage wegen Verletzung des Urheberrechtes gegen Open AI eingebracht. Kern des Vorwurfs ist, dass für die Programmierung der KI "geistiges Eigentum gestohlen" wurde. Man darf gespannt sein, wie das Verfahren ausgeht, ob es am Ende einen Vergleich gibt. Schließlich hatten die Streitparteien schon vorher Verhandlungen geführt, bei denen es schlicht ums Geld ging. Die großen Entwickler wie Open AI, Alphabet (Google), Meta, Amazon und andere hatten letzten Sommer bereits versprochen, Technologien zu entwickeln, mit denen man KI-Inhalte kennzeichnen kann. Doch Studien fanden heraus, dass man z. B. Wasserzeichen aus Texten und Bildern leicht wieder entfernen kann. Die Kamerahersteller wie Sony, Nikon oder Canon versuchen auch, etwas zu entwickeln, mit dem man die Echtheit von Fotos zertifizieren kann. Doch die meisten Bilder werden von Handykameras gemacht, die bereits KI zur Nachbearbeitung verwenden.
Die EU hat jetzt einen Gesetzesentwurf zur Regulierung von KI vorgelegt, es ist aber noch nichts beschlossen. Auf knapp 900 Seiten sollen Anbieter in die Pflicht genommen werden, aber auch mittelständischen Betrieben der Zugang zu KI-Supercomputern ermöglicht werden. Das ganze entwickelt sich aber weltweit in einem rasanten und durchaus beängstigenden Tempo. Ein bisschen erinnert alles an Goethes Zauberlehrling, der gar nicht mehr so schnell reagieren kann, wie sich die von ihm geschaffenen Besen multiplizieren. Erst 10% der Betriebe, heißt es, hätten mittlerweile eine "KI-Strategie". Wieviele werden es in einem Jahr sein?
In der Medienbranche hat der Inhalt vom Computer bereits viele Aufgaben übernommen: Vom Wetterbericht bis hin zum aktuellen Newsflow, vieles lässt sich via KI schnell und kostengünstig machen, muss nur mehr kurz bearbeitet werden. Eine KI-Software automatisiert viele sonst sehr zeitintensive Aufgaben, zum Beispiel in der Recherche und im Monitoring. Sie hilft auch dabei, Meldungen schon nach Relevanz vorzusortieren und ähnliche Inhalte des Wettbewerbs anzuzeigen. Auch was Experten zu ständig wiederkehrenden Themen sagen lässt sich auf Knopfdruck einfügen.
Einheitsbrei statt Journalismus - gibt es das nicht schon längst?
Doch das führt unterm Strich zu einem Einheitsbrei, den vielleicht nicht alle lesen wollen. Die Nachfrage nach "echtem" Journalismus und "unabhängigen" Experten wird es wohl weiter geben. Meinungen und Kommentare, fundierte Analysen und Hintergrund, dafür braucht es menschliche Intelligenz und entsprechendes Know-How. Die Frage ist nur, wie man unterscheiden kann, ob ein Text "KI-frei" oder nur raffiniert generiert ist? Und wollen das die Leser überhaupt wissen?
Ich (ein Mensch) habe dann Chat GPT gefragt, welche Gefahren es bei der Anwendung gibt. Nach fünf Sekunden kam die Antwort: ^ Hallo! Als AI-Assistent ist es meine Aufgabe, Ihnen ehrliche Informationen zu liefern. Bei der Anwendung von künstlicher Intelligenz gibt es einige potenzielle Gefahren, die berücksichtigt werden sollten. Eine der größten Gefahren besteht darin, dass KI-Systeme voreingenommen oder diskriminierend sein können, wenn sie auf unzureichenden oder voreingenommenen Daten trainiert werden. Dies kann zu ungerechten Entscheidungen oder Vorurteilen führen. Eine weitere Gefahr besteht darin, dass KI-Systeme in falsche Hände geraten und für schädliche Zwecke missbraucht werden könnten. Es besteht auch die Möglichkeit, dass KI-Systeme menschliche Arbeitsplätze ersetzen und zu sozialen und wirtschaftlichen Herausforderungen führen könnten. Es ist wichtig, diese Gefahren zu erkennen und Maßnahmen zu ergreifen, um sicherzustellen, dass künstliche Intelligenz verantwortungsvoll und ethisch eingesetzt wird. ^
Der andere Text weiter oben ist wirklich von mir, ich schwör´s. Bitte glaubt mir!!
Comments