Informationstechnologien
Systemrisiko KI in der Polykrise (cepAdhoc)
cepAdhoc
„Die Nutzung von KI kann in Krisen sehr nützlich sein. Mit normalen Daten optimierte Algorithmen können dann jedoch unbewusst zu falschen Entscheidungen führen. Es braucht daher gerade in zunehmend automatisierten Umgebungen risikosensitive Regeln für KI in Krisen”, sagt cep-Digitalexperte Anselm Küsters, der den jüngsten Regulierungsansatz der Kommission untersucht hat.
Als ein Beispiel nennt Küsters Algorithmen zur Berechnung des Risikos von Kreditkartenbetrug während der Corona-Pandemie. „Plötzlich kauften viele nur noch im Internet ein. KI-basierte Tools waren davon überfordert und blockierten unnötig viele Transaktionen.” Ein risikobasierter Ansatz, wie er im EU-KI-Gesetz vorgesehen sei, reiche daher möglicherweise nicht aus, da man das dynamische Risiko eines krisengestörten Systems, insbesondere in sich dramatisch verändernden Umgebungen, nicht kennen könne. „Akzeptiert man jedoch den risikobasierten Ansatz des aktuellen Entwurfs, könnten die in Zeiten von Polykrisen auftretenden Gefahren dadurch berücksichtigt werden, dass ein höherer Anteil von KI-gesteuerten Systemen als krisensensitiv und somit als hoch riskant eingestuft wird”, empfiehlt der cep-Experte. Entscheidend seien zudem regelmäßig mit ausreichend Personal und technischen Ressourcen ausgeführte KI-Audits - ohne Startups zu überfordern.
Laut Küsters müssten KI-begeisterte Politiker, Unternehmer und Journalisten das Schadenspotenzial von KI in Polykrisen besser berücksichtigen.
PDF herunterladen
AI as Systemic Risk in a Polycrisis (cepAdhoc) (veröff. 13.12.2022) | 413 KB | Download | |
|