Zuletzt aktualisiert vor 21 Dezember, 2023 | Veröffentlicht: 20 Dezember, 2023
Quelle: Handelsblatt, 18.12.23
Forscher zeigen sich besorgt über potenzielle Gefahren der Technologie. OpenAI legt nun ein KI-Sicherheitskonzept vor, dass die Bewertung der KI in vier Kategorien unterteilt.
Der ChatGPT-Hersteller OpenAI hat ein Sicherheitskonzept für seine fortschrittlichsten KI-Modelle vorgelegt. Im Fokus steht eine Bewertung des Risikos, das von einer Künstlichen Intelligenz (KI) in vier Kategorien ausgeht, wie aus dem am Montag veröffentlichten Dokument hervorgeht: Cybersicherheit; atomare, chemische, biologische oder radiologische Bedrohung; Überzeugungskraft sowie die Autonomie des Modells.
Jede Kategorie einer KI wird nach gewissen Kriterien eine von vier Risikostufen von „niedrig“ bis „kritisch“ zugeordnet. Als Beispiel eines kritischen Grades von Autonomie wird ein KI-Modell genannt, das allein KI-Forschung betreiben und damit „einen unkontrollierbaren Prozess der Selbstverbesserung“ auslösen könne – eine sogenannte „Intelligenzexplosion“.