Ich finde es als höchstproblematisch, wenn Algorithmen dafür eingesetzt werden, um mit predictiven Lösungen wie Precobs Precobs die Kriminalitätsprognosen am Fließband zu erstellen. Oder wenn mehr Sicherheit durch großflächige Kameraüberwachung mit integrierten Gesichterkennung versprochen wird. Ich habe Bednken aus mehreren Gründen. Zu einem sind die verwendete Beurteilungskriterien und Modell in derartigen Lösungen intransparent. Wer trägt die Verantwortung, wenn die KI sich irrt? Hinzu kommt die Abhähgigkeit von staatlichen Einrichtungen von privaten KI-Anbietern. Weiter lesen KI-Ethik: Werden Maschinen den Menschen ersetzen?