Wenn aus Intelligenz Unsinn wird

Elemente der Naturwissenschaft 121, 2024, P. 61-64 | DOI: 10.18756/edn.121.61

Abstract:

Künstliche Intelligenz (KI) ist nicht mehr aus der Welt wegzudenken. Sobald grosse Datenmengen auf Muster – Ähnlichkeiten und Unterschiede – geprüft werden müssen, ist die Maschinenintelligenz unverzichtbar.

Als ich vor mehr als 40 Jahren meine Promotion gemacht habe, galt es als «Gesetz», dass die räumliche Struktur eines Proteins aus der sog. Primärsequenz, d.i. die Reihenfolge der Aminosäuren (Bausteine), nie abgeleitet werden kann. 2020 präsentierte AlphaFold die dreidimensionale Struktur aller Proteine des Menschen und darüber hinaus Strukturen von Millionen Proteinen aus nicht menschlichen Lebewesen, von Bakterien, Pflanzen und Tieren – abgeleitet aus der Primärstruktur und trainiert mit
Strukturen, die durch die experimentelle Röntgenkristallografie ermittelt worden waren. Das Aufregende dabei war, dass AlphaFold die Strukturen in derselben Auflösung darstellen konnte, wie sie im Experiment erscheinen: 6-9 Angström (6x10-10 m).

Heute modellieren vergleichbare KI-Verfahren die Wetterprognosen, die Klimaveränderung und Kursverläufe von Aktien an der Börse, sie diagnostizieren Krebserkrankungen, bevor der Histologe sie unter dem Mikroskop entdeckt, und sie steuern Autos ohne Fahrer durch den Verkehr.

References
  • Gibney, E. (2024): AI models fed AI-generated data quickly spew nonsense. Nature 632, S. 18–19.
  • Shumailov, I. et al. (2024): AI models collapse when trained on recursively generated data. Nature 631, S. 755–760.
  • Wenger, E. (2024): AI produces gibberish when trained on too much AIgenerated data. Nature 631, S. 742–743.