Immer wieder kommt es zu körperlichen und verbalen Angriffen in öffentlichen Verkehrsmitteln. Nun soll Künstliche Intelligenz bei einem Pilotprojekt bei aggressiven Fahrgästen Alarm schlagen. Ein Start-up aus Bremen will das möglich machen.
Immer wieder kommt es zu körperlichen und verbalen Angriffen in öffentlichen Verkehrsmitteln. Nun soll Künstliche Intelligenz bei einem Pilotprojekt bei aggressiven Fahrgästen Alarm schlagen. Ein Start-up aus Bremen will das möglich machen.
Vielleicht relevante Info für die Fraktion, die nur Überschriften liest. Datenschutztechnisch kann man das schon so machen, das ist dann auch nichts anderes, als wenn Fahrer*innen die Kameras beobachten (und die haben in den neueren Straßenbahnmodellen schon länger Monitore zur Innenraumbeobachtung).
Ist besser als Cloud-Diesdas, fair enough. Aber man kann automatisierte Überwachung auch lokal doof finden:
Erstens wäre die Surveillance-Induced Conformity als problematisch zu betrachten.
Zweitens finde ich auch die Annahme, dass die AI es schafft ordentlich jedes Gesicht zu verpixeln, bisschen fragwürdig.
Drittens finde ich “KI guckt Nonstop automatisiert zu” entscheidend nicht das Gleiche wie “das Fahry hat einen Bildschirm” ¯\_(ツ)_/¯
Also ich bin mir nicht sicher, wie gut das bei der Bildqualität von S-Bahn Überwachungskameras funktioniert, aber ansonsten funktioniert sowas durchaus ziemlich gut.
Habe in der Debatte darum ob Leute draußen Live-Streamen dürfen, oder ob die Streamer dann die Gesichter von anderen verpixeln müssen was gesehen, wo jemand, nach eigener Angabe, in ca 30 Minuten ein system zusammengebügelt hat, was genau sowas halbwegs zuverlässig konnte (die Gesichter von unbeteiligten Personen verpixeln).
Ich denke, wenn man da ein bisschen mehr Aufwand reinsteckt sollte sowas ziemlich zuverlässig funktionieren. Wir haben hier ja auch keine komplexen Multifaktoriellen Entscheidungsprobleme (also beim verpixeln).
Ist das in diesem Zusammenhang nicht gerade ein Feature? Man will ja durch die Überwachung idealerweise erreichen, dass unerwünschtes, “non-konformes” Verhalten gar nicht erst vorkommt.
Ja schon. Aber die Tram bleibt ja eben nicht der einzige, überwachte Raum. Und die Problematik ist ja bei der Surveillance-Induced Conformity, wie der Effekt auch über die Überwachung hinauswirkt. Und eben, dass sich die Vorstellung davon, was gesellschaftskonform ist (mitunter rapide) ändert. Non-Konformität ist ja auch Wesenskern der Progressivität, das aus den öffentlichen Bereich zu verdrängen ist schwierig.
Jede verhinderte Gewalttat, Bepöbelung etc. ist ein Gewinn, aber die klassische Frage wieviel negative Sekundäreffekte uns gesteigerte Sicherheit wert sind, ist ja immer Teil der Diskussion.
erinnert mich an den Einsatz von KI in Schwimmbädern um die BademeisterInnen zu unterstützen. Absolut legitimer und positiver Einsatz von KI.
Ich hätte trotzdem gerne mehr Bademeister in Schwimmbädern.
Davon gibt’s wohl leider nicht genug.
deleted by creator
Sehe ich nicht so. Wer garantiert, dass kein Bias im KI Modell ist und unschuldige Menschengruppen verdächtigt werden.
Das muss natürlich bei solchen Anwendungen immer gegeben sein. Bias wird’s wahrscheinlich immer zu einen gewissen Grad geben, den hat man bei Überwachungspersonal auch.
Soweit ich das verstanden habe, geht’s hier auch nicht um “der sieht komisch aus”, sondern um “der verhält sich komisch”. Außerdem würde sowas keinen automatischen Polizeieinsatz bedeuten, sondern einen Überprüfung eines Mitarbeiters über die Kameras.