Categories: ForschungInnovationKI

Statistisches Modell korrigiert KI-Ergebnisse

Die als vorhersagegestützte Inferenz (PPI) bezeichnete Technik verwendet eine kleine Menge realer Daten, die in Bezug auf die spezifische untersuchte Hypothese unvoreingenommen ist, um die Ausgabe großer, allgemeiner Modelle – wie AlphaFold, das Proteinstrukturen vorhersagt – im Kontext spezifischer wissenschaftlicher Fragestellungen zu korrigieren.

Bei KI immer von Fehlern ausgehen

“KI-Modelle können viele Fragen beantworten, aber wir wissen nicht, welche sie gut und welche sie schlecht beantworten. Wenn man sie naiv verwendet, kann es schiefgehen. Mit PPI können Sie das Modell verwenden, aber mögliche Fehler korrigieren, selbst wenn Sie die Art dieser Fehler zu Beginn nicht erkennen”, sagt Berkeley-Informatiker Michael Jordan.

Wenn Wissenschaftler Experimente durchführen, erhalten sie meist eine Reihe plausibler Ergebnisse, die sich mehr oder weniger stark voneinander unterscheiden. Um ein gesichertes Ergebnis zu erhalten, ermitteln sie den Konfidenzintervall. Es gibt einen Vertrauensbereich an, in dem der wahre Mittelwert mit einer 95-prozentigen Wahrscheinlichkeit liegt. Im einfachsten Fall wiederholt der Forscher das betreffende Experiment und wählt das Ergebnis aus, das dem Konfidenzintervall entspricht.

KI manchmal voreingenommen

Das Problem beim Einsatz von KI besteht darin, dass maschinelle Lernsysteme viele versteckte Vorurteile haben, die die Ergebnisse verfälschen können. Diese Voreingenommenheiten ergeben sich zum Teil aus den Daten, auf deren Grundlage sie trainiert werden. Dabei handelt es sich im Allgemeinen um vorhandene wissenschaftliche Forschung, die möglicherweise schon überholt oder nicht mehr ganz den aktuellen Erkenntnissen entspricht.

“Tatsächlich sind wir bei wissenschaftlichen Problemen oft an Phänomenen interessiert, die an der Grenze zwischen Bekanntem und Unbekanntem liegen. Sehr oft gibt es nicht viele Daten aus der Vergangenheit, die an diesem Rand liegen, und das erhöht die Wahrscheinlichkeit, dass generative KI-Modelle ‘halluzinieren’ und Ergebnisse produzieren, die unrealistisch sind”, so Jordan.

Die Forscher haben PPI an einer KI-basierten Erfassung der Entwaldung im Amazonasgebiet anhand einzelner Satellitenbilder getstetet. Deren Auswertung war exakt, doch als es daran ging, sie für eine Prognose der Entwaldung im gesamten Bereich zu nutzen, ging es schief. Erst das Einfügen einer kleinen Anzahl von vom Menschen gekennzeichneten Entwaldungsregionen führte zu einem korrekten Ergebnis. (pte)

Roger Homrich

Recent Posts

Passwort Adé

„123456“ – Das war’s? Nicht so ganz, sagt Dirk Wahlefeld von Imprivata.

10 Stunden ago

GoldFactory: Cyberkriminelle stehlen dein Gesicht

Wenn ein Cyberkrimineller dein Passwort stiehlt, kannst du es ändern. Aber was passiert, wenn er…

1 Tag ago

Data Governance im Jahr 2025: KI verändert alles

Unternehmen müssen sicherstellen, dass sie einen einheitlichen Ansatz für das KI-Management verfolgten, sagt Ann Maya…

1 Tag ago

Südpack Medica digitalisiert Vertrieb mit SAP Sales Cloud V2

Adesso schließt CRM-Implementierung im Greenfield-Ansatz innerhalb eines halben Jahres ab.

2 Tagen ago

Hilfe bei KI-Skalierung für den deutschen Mittelstand

AppliedAI und NVIDIA wollen mit KI-Programm den Zugang zu KI-Lösungen erleichtern und Umsetzung von Innovationen…

3 Tagen ago

Neue Arbeitswelt, alte Fragen: IT-Freelancer-Flexibilität trifft auf Finanzamt

Steuerrechtlich werden die verschwimmenden Grenzen zwischen echter Selbstständigkeit und möglicher Scheinselbstständigkeit zunehmend zu einem Problem.

4 Tagen ago