Bei Gesichtserkennungskameras gibt es “false positives” (Unschuldige Person als Täter erkannt) und “false negatives” (Schuldige Person nicht als Täter erkannt). Gibts zuviele false positives, kommt das nicht gut an. Gibts zu viele false negatives ist das System praktisch wirkungslos. Bin mal sehr gespannt auf die Balance dazwischen.
False positives kommen nicht nur schlecht an, sie strapazieren das eh schon personell unterbesetzte und von ausufernder Bürokratie gelähmte System noch mehr und machen es ineffektiver, weil das Personal, das in der Zeit tatsächliche Verbrechen verfolgen könnte, damit beschäftigt ist, von einem Halluzinationsautomaten herbeifabulierte Verbrechen zu untersuchen. Außerdem entsteht dadurch eine Alarmmüdigkeit, und die Leute, die die Meldungen des automatischen Systems bearbeiten, werden sie zunehmend ignorieren, weil sie annehmen, dass es sich eh nur wieder um einen Fehlalarm handelt. Dadurch werden auch die tatsächlichen Verbrechen, die das System zufällig erkennt, weniger verfolgt.
Das ist also auf allen Ebenen maximal kontraproduktiv. Der Einzige, der davon profitiert, ist der Hersteller des Systems und die Politiker, die von ihm “Spenden” oder hochbezahlte Pöstchen im Aufsichtsrat kriegen.
Es geht nicht darum gerecht und effektiv Verbrechen zu verhindern und zu verfolgen. Es geht darum einen Glaskugelautomaten zu haben, der bei Bedarf gegen jeden (einzeln oder als Teil einer Gruppe) den man los haben will etwas (er)findet.
“KI”-Systeme sind oft voreingenommen gegenüber unterrepräsentierten Gruppen (was anti-woken Tech-Faschisten keinen Schlaf rauben wird). Also werden false positives hauptsächlich diese treffen, und sind damit ein Feature.
False positives kommen nicht nur schlecht an, sie strapazieren das eh schon personell unterbesetzte und von ausufernder Bürokratie gelähmte System noch mehr und machen es ineffektiver, weil das Personal, das in der Zeit tatsächliche Verbrechen verfolgen könnte, damit beschäftigt ist, von einem Halluzinationsautomaten herbeifabulierte Verbrechen zu untersuchen. Außerdem entsteht dadurch eine Alarmmüdigkeit, und die Leute, die die Meldungen des automatischen Systems bearbeiten, werden sie zunehmend ignorieren, weil sie annehmen, dass es sich eh nur wieder um einen Fehlalarm handelt. Dadurch werden auch die tatsächlichen Verbrechen, die das System zufällig erkennt, weniger verfolgt.
Das ist also auf allen Ebenen maximal kontraproduktiv. Der Einzige, der davon profitiert, ist der Hersteller des Systems und die Politiker, die von ihm “Spenden” oder hochbezahlte Pöstchen im Aufsichtsrat kriegen.
Es geht nicht darum gerecht und effektiv Verbrechen zu verhindern und zu verfolgen. Es geht darum einen Glaskugelautomaten zu haben, der bei Bedarf gegen jeden (einzeln oder als Teil einer Gruppe) den man los haben will etwas (er)findet.
“KI”-Systeme sind oft voreingenommen gegenüber unterrepräsentierten Gruppen (was anti-woken Tech-Faschisten keinen Schlaf rauben wird). Also werden false positives hauptsächlich diese treffen, und sind damit ein Feature.