Zuletzt aktualisiert vor 25 Januar, 2024 | Veröffentlicht: 24 Januar, 2024
Quelle: Content Manager, 3.1.24
Zum Ende des letzten Jahres stellte OpenAI ein neues Sicherheitskonzept für seine künstliche Intelligenz vor. Das Risiko wird dabei anhand von bestimmten Merkmalen in unterschiedliche Kategorien eingeteilt. Von niedriger Risikostufe bis kritisch können die KI-Modelle eingeordnet werden. Mit diesem Sicherheitskonzept von OpenAi will man den offenen Fragen rund um die Gefahren von KI entgegentreten.
In einer sogenannten Scorecard werden verschiedene Eigenschaften von KI-Modellen in vier Kategorien eingeordnet. Die Eigenschaften, die untersucht werden, sind Cybersecurity, CBRN (chemische, biologische, radiologische oder nukleare Bedrohungen), Überredungskünste und die Selbständigkeit des Modells. Jede Eigenschaft bekommt ihre eigene Kategorie. Die abschließende Einschätzung des gesamten KI-Modells entspricht der höchsten Einzelkategorie. Das bedeutet also, dass eine KI, die bei 3 von 4 Eigenschaften niedrig eingestuft wird, aber einmal eine mittlere Einstufung erhält, insgesamt auch mit mittlerem Risiko bewertet wird.