Immer wieder kommt es zu körperlichen und verbalen Angriffen in öffentlichen Verkehrsmitteln. Nun soll Künstliche Intelligenz bei einem Pilotprojekt bei aggressiven Fahrgästen Alarm schlagen. Ein Start-up aus Bremen will das möglich machen.
Die Technik entwickelte ein Bremer Start-up: Die Aufnahmen der Kameras in der Straßenbahn werden in Echtzeit an einen eingebauten Rechner weitergeleitet. Mit KI werden zunächst die Gesichter der Fahrgäste verpixelt. “Uns ist ja erst mal egal, wer da irgendwas tut”, betont Thorsten Harder vom BSAG-Vorstand. “Für uns ist erst mal wichtig: Was passiert im Fahrzeug?” KI wertet die Aufnahmen dann aus und meldet Konflikte - etwa Streit unter Fahrgästen oder Randalierer. Der Fahrer und die Leitstellen könnten anhand der Bilder sofort reagieren und im Zweifel Einsatzkräfte alarmieren, sagte Harder.
[…]
Die Technik sei mit dem Landesbeauftragten für Datenschutz abgestimmt, teilte die BSAG mit. So werden Fahrgäste verpixelt, die Aufnahmen nur innerhalb des Fahrzeugs verarbeitet und nicht gespeichert.Vielleicht relevante Info für die Fraktion, die nur Überschriften liest. Datenschutztechnisch kann man das schon so machen, das ist dann auch nichts anderes, als wenn Fahrer*innen die Kameras beobachten (und die haben in den neueren Straßenbahnmodellen schon länger Monitore zur Innenraumbeobachtung).
Ist besser als Cloud-Diesdas, fair enough. Aber man kann automatisierte Überwachung auch lokal doof finden:
Erstens wäre die Surveillance-Induced Conformity als problematisch zu betrachten.
Zweitens finde ich auch die Annahme, dass die AI es schafft ordentlich jedes Gesicht zu verpixeln, bisschen fragwürdig.
Drittens finde ich “KI guckt Nonstop automatisiert zu” entscheidend nicht das Gleiche wie “das Fahry hat einen Bildschirm” ¯\_(ツ)_/¯
Zweitens finde ich auch die Annahme, dass die AI es schafft ordentlich jedes Gesicht zu verpixeln, bisschen fragwürdig.
Also ich bin mir nicht sicher, wie gut das bei der Bildqualität von S-Bahn Überwachungskameras funktioniert, aber ansonsten funktioniert sowas durchaus ziemlich gut.
Habe in der Debatte darum ob Leute draußen Live-Streamen dürfen, oder ob die Streamer dann die Gesichter von anderen verpixeln müssen was gesehen, wo jemand, nach eigener Angabe, in ca 30 Minuten ein system zusammengebügelt hat, was genau sowas halbwegs zuverlässig konnte (die Gesichter von unbeteiligten Personen verpixeln).
Ich denke, wenn man da ein bisschen mehr Aufwand reinsteckt sollte sowas ziemlich zuverlässig funktionieren. Wir haben hier ja auch keine komplexen Multifaktoriellen Entscheidungsprobleme (also beim verpixeln).
Erstens wäre die Surveillance-Induced Conformity als problematisch zu betrachten.
Ist das in diesem Zusammenhang nicht gerade ein Feature? Man will ja durch die Überwachung idealerweise erreichen, dass unerwünschtes, “non-konformes” Verhalten gar nicht erst vorkommt.
Ja schon. Aber die Tram bleibt ja eben nicht der einzige, überwachte Raum. Und die Problematik ist ja bei der Surveillance-Induced Conformity, wie der Effekt auch über die Überwachung hinauswirkt. Und eben, dass sich die Vorstellung davon, was gesellschaftskonform ist (mitunter rapide) ändert. Non-Konformität ist ja auch Wesenskern der Progressivität, das aus den öffentlichen Bereich zu verdrängen ist schwierig.
Jede verhinderte Gewalttat, Bepöbelung etc. ist ein Gewinn, aber die klassische Frage wieviel negative Sekundäreffekte uns gesteigerte Sicherheit wert sind, ist ja immer Teil der Diskussion.
erinnert mich an den Einsatz von KI in Schwimmbädern um die BademeisterInnen zu unterstützen. Absolut legitimer und positiver Einsatz von KI.
Ich hätte trotzdem gerne mehr Bademeister in Schwimmbädern.
Davon gibt’s wohl leider nicht genug.
deleted by creator
Sehe ich nicht so. Wer garantiert, dass kein Bias im KI Modell ist und unschuldige Menschengruppen verdächtigt werden.
Das muss natürlich bei solchen Anwendungen immer gegeben sein. Bias wird’s wahrscheinlich immer zu einen gewissen Grad geben, den hat man bei Überwachungspersonal auch.
Soweit ich das verstanden habe, geht’s hier auch nicht um “der sieht komisch aus”, sondern um “der verhält sich komisch”. Außerdem würde sowas keinen automatischen Polizeieinsatz bedeuten, sondern einen Überprüfung eines Mitarbeiters über die Kameras.
Läuft die KI lokal? Wenn nein, dann will ich es nicht.
Du hast also nicht nur den Artikel nicht gelesen, sondern auch den Kommentar igneoriert, den ich extra für so faule Säcke wie dich abgesetzt habe.
Beschwerst du dich eigentlich manchmal über die Debattenkultur?
Einen relevanten Teil eines Satzes habe ich überlesen und nehme dementsprechend meinen vorherigen Kommentar zurück.
Beschweren würde ich mich nur über deine “Debattenkultur”.
Guckt rein: unsicherer gemacht
Inwiefern?
KI heißt niemand weiß wie es funktioniert. Ist da zb irgendein Bias drin, dass bestimmte Menschengruppen eher als Täter markiert werden und fälschlicherweise verdächtigt.
Verpixeln hilft auch nicht wenn die Trainingsdaten behaupten bärtige Männer sind gefährlich
Die KI soll ja erstmal nur Alarm schlagen, damit ein Mensch drauf guckt. Ein bisschen wie computergestützte Waldbranderkennung, die es schon vor 20 Jahren gab.







