Immer wieder kommt es zu körperlichen und verbalen Angriffen in öffentlichen Verkehrsmitteln. Nun soll Künstliche Intelligenz bei einem Pilotprojekt bei aggressiven Fahrgästen Alarm schlagen. Ein Start-up aus Bremen will das möglich machen.

  • CyberEgg@discuss.tchncs.deOP
    link
    fedilink
    arrow-up
    31
    ·
    4 days ago

    Die Technik entwickelte ein Bremer Start-up: Die Aufnahmen der Kameras in der Straßenbahn werden in Echtzeit an einen eingebauten Rechner weitergeleitet. Mit KI werden zunächst die Gesichter der Fahrgäste verpixelt. “Uns ist ja erst mal egal, wer da irgendwas tut”, betont Thorsten Harder vom BSAG-Vorstand. “Für uns ist erst mal wichtig: Was passiert im Fahrzeug?” KI wertet die Aufnahmen dann aus und meldet Konflikte - etwa Streit unter Fahrgästen oder Randalierer. Der Fahrer und die Leitstellen könnten anhand der Bilder sofort reagieren und im Zweifel Einsatzkräfte alarmieren, sagte Harder.
    […]
    Die Technik sei mit dem Landesbeauftragten für Datenschutz abgestimmt, teilte die BSAG mit. So werden Fahrgäste verpixelt, die Aufnahmen nur innerhalb des Fahrzeugs verarbeitet und nicht gespeichert.

    Vielleicht relevante Info für die Fraktion, die nur Überschriften liest. Datenschutztechnisch kann man das schon so machen, das ist dann auch nichts anderes, als wenn Fahrer*innen die Kameras beobachten (und die haben in den neueren Straßenbahnmodellen schon länger Monitore zur Innenraumbeobachtung).

    • kossa@feddit.org
      link
      fedilink
      arrow-up
      12
      ·
      edit-2
      4 days ago

      Ist besser als Cloud-Diesdas, fair enough. Aber man kann automatisierte Überwachung auch lokal doof finden:

      Erstens wäre die Surveillance-Induced Conformity als problematisch zu betrachten.

      Zweitens finde ich auch die Annahme, dass die AI es schafft ordentlich jedes Gesicht zu verpixeln, bisschen fragwürdig.

      Drittens finde ich “KI guckt Nonstop automatisiert zu” entscheidend nicht das Gleiche wie “das Fahry hat einen Bildschirm” ¯\_(ツ)_/¯

      • da_cow (she/her)@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        3 days ago

        Zweitens finde ich auch die Annahme, dass die AI es schafft ordentlich jedes Gesicht zu verpixeln, bisschen fragwürdig.

        Also ich bin mir nicht sicher, wie gut das bei der Bildqualität von S-Bahn Überwachungskameras funktioniert, aber ansonsten funktioniert sowas durchaus ziemlich gut.

        Habe in der Debatte darum ob Leute draußen Live-Streamen dürfen, oder ob die Streamer dann die Gesichter von anderen verpixeln müssen was gesehen, wo jemand, nach eigener Angabe, in ca 30 Minuten ein system zusammengebügelt hat, was genau sowas halbwegs zuverlässig konnte (die Gesichter von unbeteiligten Personen verpixeln).

        Ich denke, wenn man da ein bisschen mehr Aufwand reinsteckt sollte sowas ziemlich zuverlässig funktionieren. Wir haben hier ja auch keine komplexen Multifaktoriellen Entscheidungsprobleme (also beim verpixeln).

      • rbn@sopuli.xyz
        link
        fedilink
        arrow-up
        1
        ·
        4 days ago

        Erstens wäre die Surveillance-Induced Conformity als problematisch zu betrachten.

        Ist das in diesem Zusammenhang nicht gerade ein Feature? Man will ja durch die Überwachung idealerweise erreichen, dass unerwünschtes, “non-konformes” Verhalten gar nicht erst vorkommt.

        • kossa@feddit.org
          link
          fedilink
          arrow-up
          4
          ·
          edit-2
          3 days ago

          Ja schon. Aber die Tram bleibt ja eben nicht der einzige, überwachte Raum. Und die Problematik ist ja bei der Surveillance-Induced Conformity, wie der Effekt auch über die Überwachung hinauswirkt. Und eben, dass sich die Vorstellung davon, was gesellschaftskonform ist (mitunter rapide) ändert. Non-Konformität ist ja auch Wesenskern der Progressivität, das aus den öffentlichen Bereich zu verdrängen ist schwierig.

          Jede verhinderte Gewalttat, Bepöbelung etc. ist ein Gewinn, aber die klassische Frage wieviel negative Sekundäreffekte uns gesteigerte Sicherheit wert sind, ist ja immer Teil der Diskussion.

    • pulsey@feddit.org
      link
      fedilink
      arrow-up
      6
      ·
      4 days ago

      erinnert mich an den Einsatz von KI in Schwimmbädern um die BademeisterInnen zu unterstützen. Absolut legitimer und positiver Einsatz von KI.

      • Wodudodo@feddit.org
        link
        fedilink
        arrow-up
        4
        ·
        4 days ago

        Sehe ich nicht so. Wer garantiert, dass kein Bias im KI Modell ist und unschuldige Menschengruppen verdächtigt werden.

        • pulsey@feddit.org
          link
          fedilink
          arrow-up
          1
          ·
          3 days ago

          Das muss natürlich bei solchen Anwendungen immer gegeben sein. Bias wird’s wahrscheinlich immer zu einen gewissen Grad geben, den hat man bei Überwachungspersonal auch.

          Soweit ich das verstanden habe, geht’s hier auch nicht um “der sieht komisch aus”, sondern um “der verhält sich komisch”. Außerdem würde sowas keinen automatischen Polizeieinsatz bedeuten, sondern einen Überprüfung eines Mitarbeiters über die Kameras.