Abonnenten können jeden Artikel sofort lesen, erhalten anzeigenfreie Seiten und viele andere Vorteile. Ein Abo (13 Euro pro Monat/130 pro Jahr) ist jederzeit beendbar und endet einfach durch Nichtzahlung. 

weiterlesen

Die künstliche und die natürliche Intelligenz

Weltweit sorgt der große Qualitätssprung der elektronischen Welt hin zur "künstlichen Intelligenz" (AI) für Aufregung, die jetzt recht plötzlich in breiter Front die Konsumenten erreicht hat. Auch der ORF berichtete diese Woche darüber. Freilich: Schon in diesem kurzen Bericht produzierte die vom Zwangsgebührensender befragte "Intelligenz" gleich einen schlimmen Fehler. Dieser ist dem ORF allerdings nicht aufgefallen, was sich nahtlos in die Fehlerkette des Zwangsgebührensenders einreiht. Aber während wir uns an diese schon seit langem gewöhnen mussten, sollten wir solche Fehler des neuen Stars am Internethimmel aber auch als dankenswerte Beiträge zur Entmystifizierung der Künstlichen Intelligenz sehen. Diese wird zwar derzeit überall mit offenem Mund als neues Wunderwerk bewundert. Sie ist aber keine Niederkunft göttlicher Allwissenheit auf die Menschheit. Sie ist Menschenwerk. Und damit alles andere als fehlerlos. Klar ist dennoch jetzt schon: Sie ist jedenfalls auch eine tolle Leistung der Informationstechnologie, um Dinge besser zu machen, um Aufgaben zu erleichtern, aber auch um uns zu verwirren.

Wir sollten daher von Anfang an im Umgang mit der AI ein gesundes Ausmaß an Skepsis behalten. Auch die künstliche Intelligenz macht die ganz natürliche, also die menschliche, nicht überflüssig. Im altmodischen, leider lange vor der AI unüblich gewordenen Journalismus hat die Umsetzung dieser notwendigen Skepsis geheißen: Check, Re-Check, Double-Check.

Das entscheidende Schlüsselwort heißt Vertrauen. Welcher Quelle kann ich vertrauen? Gibt es etwas, was mich an einer Aussage der AI misstrauisch machen könnte?

Darin verbirgt sich der entscheidende Nachteil der AI. Sie nennt ihre Quellen nicht, sondern gibt sich allwissend. Daher sind ihre Quellen ja die eigentlichen Wurzeln der relativ willkürlich zusammengefügten Informationen, die sie irgendwo im Internet findet. Diese Quellen ergeben aber in Summe eben nicht Allwissenheit, sondern ein als Blackbox daherkommendes Amalgam von Inputs, die – vereinfacht gesprochen – aus der Summe der beim "Googeln" gefundenen Informationen bestehen, die im Output dann halt zu einem schön gestalteten Text zusammengeführt werden, ohne Meinungsverschiedenheiten, Unklarheiten oder Wissenslücken aufzuzeigen. Da sich die Inputs aber in Wahrheit oft widersprechen, ist die Quellenlosigkeit ein schlimmer Mangel, da man jetzt weniger denn je die Herkunft der Wissens-Puzzles überprüfen und einander gegenüberstellen kann.

AI weiß nicht mehr als Google, aber sie fügt das Ergebnis im Gegensatz zu Google zu schön komponierten Sätzen und Aufsätzen zusammen. Oder zu musikalischen Kompositionen, wie es etwa schon vor einigen Jahren die im Computer kreierte "zehnte Beethoven-Symphonie" gewesen ist. Diese klingt zwar durchaus nach dem größten Meister der Musikgeschichte, sie lässt aber gänzlich Kreativität und Genialität vermissen. Weil eben nur Altes neu arrangiert wird.

Probleme wird AI vor allem für Schulen bereiten. Kein Lehrer wird etwa künftig bei Hausübungen oder Referaten beurteilen können, wo die Eigenleistung und wo jene der Maschine gelegen ist.

Die AI vervielfacht auch ein Problem, auf das man schon bei Wikipedia immer wieder gestoßen ist: Beide reproduzieren, sobald es um ideologisch umstrittene Fragen geht, die im Internet schon länger vorherrschenden Dummheiten eines linken Zeitgeistes. So konnte man bei Wikipedia früher beispielsweise lange Auflistungen der Fehler, Denk-Kurzschlüsse und zweifelhaften Argumente der sogenannten Klimabewegung finden. Heute sind diese Listen unter grünem Druck verschwunden oder gar den Behauptungen der Klimabewegung untergeordnet worden. Wikipedia ist nur bei Geburtsdaten und Ähnlichem ziemlich verlässlich, aber ziemlich unbrauchbar bei Bewertungen.

Nachzutragen ist noch der eingangs erwähnte Fehler der vom ORF stolz präsentierten Künstlichen Intelligenz von "ChatGPT" (einem frei zugänglichen AI-Dialog-Instrument der neuaufgetauchten Firma "OpenAI"). Sie setzte Südtirol mit der "Region Trentino-Südtirol" gleich, obwohl Südtirol eindeutig nur eine Provinz ist, die Teil dieser Region ist. Das ist so, wie wenn man Niederösterreich mit Österreich gleichsetzt. Das wäre zwar nicht ganz falsch, aber schon sehr dumm. Diesen Fehler hätte wohl jeder Südtiroler und jeder Kenner der österreichischen Geschichte, des Völker- und italienischen Staatsrechts entdeckt. Die ORF-Redakteure natürlich nicht. Die begnügen sich wie viele andere Zeitgenossen mit der blinden Anbetung der AI.

Aber auch die Google-Antwort auf ChatGPT produzierte gleich zu Beginn einen peinlichen Fehler. Der war dort noch dazu im offiziellen Promotionsvideo zu finden und nicht nur im wenig geschauten ORF. Dieser Fehler hatte bei der Google-Muttergesellschaft Alphabet dramatische Folgen: Ihr Aktienwert reduzierte sich binnen Stunden um mehr als 100 Milliarden Dollar. Es ging dabei um die Frage, welches Teleskop als erstes einen Planeten außerhalb des Sonnensystems entdeckt hat.

Diese Hysterie wird sich gewiss legen. Wir werden ebenso gewiss die vielen Vorteile von AI nutzen. Wir werden aber auch mit den Nachteilen leben müssen. Diese gleichen übrigens jenen, die die Menschheit schon mehrmals – etwa seit der Marktausrollung der ersten Rechenmaschinen oder Rechtschreibprogramme – erlebt hat: Viele Zeitgenossen halten es seither für überflüssig, Rechtschreiben oder Dividieren zu lernen. Sie haben auch oft jede Plausibilitätskontrolle aufgegeben, etwa ob irgendwelche Angaben in Millionen oder Milliarden oder Billionen sinnvoll sein können. Sie halten eigenes Denken in Zeiten der Maschine oft für überflüssig.

Dabei müssten wir künftig vor allem eines noch viel mehr praktizieren: Misstrauen. Denken Sie nur daran, wie leicht Fotos oder Videos jetzt schon mittels Anwendungen der künstlichen Intelligenz gefälscht werden können; oder dass selbst Handschriften bald ununterscheidbar nachgemacht werden können.

Faszinierend bleibt die AI trotzdem. Das derzeit Furore machende Programm ChatGPT ist deswegen nicht zu Unrecht der schnellste Erfolg eines neu gegründeten Internet-Unternehmens geworden: Binnen fünf Tagen griff eine Million Menschen auf das Produkt zu. Und im Jänner wurde schon die Grenze von 100 Millionen überstiegen. Gleichzeitig zu "OpenAI", das mit Bing von Microsoft kooperiert, arbeiten Google ("Deep Mind"), chinesische Denkfabriken sowie die bisher völlig unbekannten Unternehmen "Anthropic", "Character AI", "Stability AI", "Lamda", "Sparrow" und wahrscheinlich noch etliche andere an verwendbaren Programmen der Künstlichen Intelligenz für den breiten Konsum.

Vorformen der heutigen AI hatten ja schon vor Jahren begonnen, Menschen beim Schach- oder Go-Spiel zu besiegen. Die AI hat im Ukraine-Krieg auch schon Einführung in die moderne Kriegsführung gehalten, wo sie sich sehr oft der russischen Taktik als überlegen gezeigt hat, Menschenmasse nach Menschenmasse ins tödliche Feuer zu schicken.

Die entscheidende Frage unserer Zukunft wird sein: Wem kann ich vertrauen? Oder genauer: Wem kann ich am ehesten vertrauen? Welcher Intelligenz? Welchem Wissenschaftler? Welcher Quelle? Welchem Politiker? Welchem Medium? Was ist echt? Und was ein bloßes Produkt einer Maschine, deren Namen ich nicht einmal verstehe? Oder fangen Sie etwas an mit der Bezeichnung "Generative Pre-trained Transformer" oder auf Deutsch: "Vortrainierter/eintrainierter generativer Transformator"?

Wir werden mit Sicherheit die Künstliche Intelligenz intensiv nutzen. Sie wird uns bei vielem helfen. Wir werden dabei aber unsere Entscheidungsfähigkeit, also unsere natürliche Intelligenz noch viel mehr trainieren müssen. Genauso, wie wir weiterhin unseren Kindern und Enkelkindern unbedingt gutes Schachspiel, Rechnen, Rechtschreiben und noch viele andere Dinge beibringen sollten. Genauso, wie wir atemlos dem globalen (oder eigentlich fast nur zwischen den USA und China stattfindenden) Rennen der einzelnen AI-Entwickler zuschauen werden.

So wie einst die Menschheit dem Wettrennen zum Südpol oder Mond zugeschaut hat.

zur Übersicht

Kommentieren (leider nur für Abonnenten)

Teilen:
  • email
  • Add to favorites
  • Facebook
  • Google Bookmarks
  • Twitter
  • Print




© 2024 by Andreas Unterberger (seit 2009)  Impressum  Datenschutzerklärung