Tendenz zum Halluzinieren
Für Fachmanuskripte und Projektanträge hat das natürlich Konsequenzen. So fügte beispielsweise der Wissenschaftsverlag Springer-Nature seinen Autorenrichtlinien Ende Januar 2023 bereits zwei Paragraphen hinzu: Zum einen verbietet der Verlag Sprachmodelle als Autoren. Zum anderen müssen menschliche Autoren jedwede Verwendung von Sprachmodellen im Abschnitt Material und Methoden beschreiben oder im Abschnitt Acknowledgements dokumentieren. Auch Science-Journale und die PrePrint-Server aRxiv, bioRxiv und medRxiv aktualisierten ihre Richtlinien bereits um entsprechende Abschnitte.
Unbegründet sind diese Vorbehalte gegenüber Sprachmodellen nicht. So erklärt Simon Eickhoff, der als Professor für Kognitive Neurowissenschaften in Düsseldorf die Organisationsprinzipien des menschlichen Gehirns mithilfe maschineller Lernalgorithmen erforscht: „ChatGPT zeigt eine klare Tendenz zum ‚Halluzinieren‘. Es erfindet auf den ersten Blick glaubwürdige Referenzen und Zitate, stellt falsche Informationen bereit und vermischt Dinge – alles aber in gut formulierter Sprache und in einem insgesamt korrekten Kontext.“ Zusätzlich stolpert es bei Rechenaufgaben, bei arithmetischen Umrechnungen und sobald es logische Schlüsse ziehen soll.
Die Entwicklerfirmen haben natürlich diese Problematik längst erkannt. Bereits jetzt stehen fortgeschrittene Sprachmodelle in den Startlöchern, ihre Antworten über Datenbank-Recherchen zu überprüfen.
Tech-Unternehmen entscheiden
Noch stehen aber menschliche Anwender selbst in der Pflicht. Noch müssen sie künstliche Texte auf Wahrheitsgehalt, Genauigkeit, Plausibilität und Relevanz durchleuchten. Für eine fachfremde Leserschaft und bei wissenschaftlichen Aufsätzen bleibt das natürlich mühsam – vor allem wenn Texte formale Ansprüche erfüllen und von Stil und Sprache her überzeugen.
Darin sieht Christophe Trefois, Leiter des Support-Teams „Verantwortungsvolle und Reproduzierbare Forschung“ am Luxembourg Centre for Systems Biomedicine der Universität Luxemburg, die eigentliche Herausforderung: „ChatGPT ist intrinsisch voreingenommen, da es nur die Vorurteile seiner Trainingsdaten widerspiegelt. Wenn es dabei so überzeugend und menschlich klingt, wie kann man Fehler oder Ungewissheit erkennen? Können wir einer KI jemals blind vertrauen?“ Burkhard Rost, Lehrstuhlinhaber für Bioinformatik an der Technischen Universität München, gibt zu bedenken: „Natürlich lassen sich Trainingsdatensätze modifizieren. Doch wer entscheidet über diese Zensur? Wer darf den moralischen Zeigefinger erheben und festlegen, welche Vorurteile Sprachmodelle integrieren dürfen und welche nicht?“ Rosts Doktorand Konstantin Weißenow bringt es auf den Punkt: „Gegenwärtig entscheiden Tech-Unternehmen, was zensiert wird, und geben damit gesellschaftspolitische Richtungen vor.“
Befähigung ja, Verbote nein
Es gibt gegenwärtig mehr Fragen als Antworten, das ist klar. Aber vielleicht sollten Forschungstreibende ChatGPT auch einfach als Unterstützung betrachten? Abigail Morrison, Leiterin des Simulationslabors Neurowissenschaften am Supercomputing Centre des Forschungszentrums Jülich, sieht das so: „Erstens können Sprachmodelle uninteressante und anspruchslose Schreibaufgaben beschleunigen, also Konzepte in Artikeln und Förderanträgen erläutern, frühere Arbeiten und ihre Grenzen erörtern sowie Abstracts erstellen – alles natürlich unter Aufsicht menschlicher Experten, die ihrerseits dann Wissenslücken aufzeigen und Forschungsideen entwickeln. Zweitens erlauben es Sprachmodelle, sich schnell einen Überblick über andere Wissenschaftsgebiete zu erarbeiten, und sogar Folgefragen zu stellen, anstatt nur passiv Informationen aufzusaugen. Bald werden wir interaktive Übersichtsartikel auf Abruf für jedes Thema haben.“
Folglich hat generative Texttechnologie das Potenzial, die Wissenschaften zu demokratisieren. Gleichzeitig weist Iva Pritišanac, Assistenzprofessorin für computergestützte Strukturbiologie an der Medizinischen Universität Graz, darauf hin: „Diese Werkzeuge bieten Abkürzungen an, um bestimmte Aufgaben zu beschleunigen oder ganz zu eliminieren. Allerdings warne ich davor, ‘jedes Problem‘ mit ihnen und ihren Abkürzungen lösen zu wollen. Es gibt immer noch keinen Ersatz für richtiges Denken und die Mühe, die man sich mit dem Erwerb von Fachwissen macht.“
Nützlicher Forschungsasssistent
Auch der Münchner Bioinformatiker Burkhard Rost ist eher optimistisch: „Sprachmodelle können Nicht-Muttersprachlern kooperativ helfen, Fachartikel und Förderanträge zu formulieren.“ Außerdem stellen sie Nachwuchswissenschaftlern, Forschenden in Schwellenländern und Studierenden, denen finanzielle Ressourcen fehlen, künstliche Forschungsassistenten zur Verfügung, die Computercode erzeugen, experimentelle Protokolle überprüfen, Publikationen zusammenfassen, eigene Kritzeleien, Gedanken und Ideen organisieren und Feedback geben. Rosts Postdoktorand Michael Heinzinger geht noch weiter: „Generierten solche Systeme in Rücksprache mit menschlichen Experten nicht nur Forschungsideen, sondern gingen ihnen gekoppelt an einen Pipettierroboter sogar aktiv nach und stellten ihre Forschungsergebnisse direkt online, könnten wir die Geschwindigkeit unseres wissenschaftlichen Fortschritts unglaublich erhöhen. Das wäre transformativ!“
Denn ob es gefällt oder nicht: Große Sprachmodelle entwickeln sich rasant weiter. Ihre Leistungsstärke korreliert mit der Anzahl ihrer Parameter, die während des Netzwerktrainings optimiert werden. Programmierte OpenAI im Jahr 2019 GPT-2 noch mit 1,5 Milliarden Parametern, verfügte GPT-3 bereits über 175 Milliarden Variablen. Googles Switch Transformer und die Sprach-KI Wu Dao der Pekinger Akademie für künstliche Intelligenz warten bereits mit 1.600 und 1.750 Milliarden Parametern auf. Sprachmodelle wachsen also exponentiell – und damit ihre Leistungsfähigkeit. Es wäre weise, sich darauf vorzubereiten.
Henrik Müller
Dieser hier stark gekürzte Artikel erschien zuerst in ausführlicher Form in Laborjournal 3-2023.
Bild: Pixabay/geralt
Weitere Artikel zum Thema künstliche Intelligenz
- Verborgene Muster in Peptidfragmenten
Die Analyse von Proteinproben mit Flüssigchromatographie und Massenspektrometrie ist den Proteomikern inzwischen in Fleisch und Blut übergegangen. Viel größeres Kopfzerbrechen bereitet ihnen die Auswertung der Massenspektren. Ohne Bioinformatik und künstliche Intelligenz stünden sie hier auf verlorenem Posten.
- Künstlich-intelligente Wissenschaftsbegutachtung
Maschinelle Sprachverarbeitung und neuronale Netzwerke versprechen, Peer-Review-Verfahren zu beflügeln und von menschlichen Schwächen zu befreien. Evaluieren sie eventuell sogar wissenschaftliche Qualität effizienter?
- Peptidmechanik lernende Proteinsprachmodelle
Im Kielwasser von AlphaFold2 jagt gegenwärtig ein Programm zur Vorhersage von Proteinstrukturen das nächste. Was müssen sie mitbringen, um auch die Mechanismen der Proteinfaltung zu enträtseln?