Nordamerika

Wird der "Minority Report" real? US-Polizei testet KI zur Vorhersage von Verbrechen

Die Polizei von Chicago testet derzeit ein KI-basiertes System, das Verbrechen voraussagen soll, bevor sie geschehen. Aber kein Anlass zur Sorge: Die damit einhergehende Macht wird in den USA definitiv nicht missbraucht werden – das glaubt zumindest der Entwickler des Analysetools Professor Ishanu Chattopadhyay.
Wird der "Minority Report" real? US-Polizei testet KI zur Vorhersage von VerbrechenQuelle: Gettyimages.ru © CBS Photo Archive / Kontributor

Die Dystopie des Jahres 2054 im Film "Minority Report", gedreht 2002 nach einer Romanvorlage von Philip K. Dick aus dem Jahr 1956, lässt so gut wie keine Verbrechen mehr zu, da die Polizei nun endlich – zumindest vermeintlich – in die Lage versetzt werden soll, Verbrechen zu verhindern, bevor diese überhaupt geschehen. Möglich machen sollen das sogenannte "Precogs", das sind Troikas, die mit quasi übersinnlichen Kräften in die Zukunft blicken können. Diese mit einer Allmacht auszustattenden Polizisten im Film zeugen zwar von einer dystopischen Gesellschaft, die schon stark an jene Albträume in George Orwells Romanen erinnert. Dennoch ist bereits heute ist ein solches Szenario nicht mehr so fern von der Realität. Durch den Fortschritt im Bereich der Künstlichen Intelligenz (KI) rückt der Traum – oder eher Albtraum – vom Predictive Policing, der präventiven Strafverfolgung immer näher.

Zumeist mit – zumindest angeblich – guten Absichten verfolgen Forscher weltweit das Ziel, auch Algorithmen zur Vorhersage von Verbrechen zu entwickeln. Und langsam scheinen derartige Bemühungen von Erfolg gekrönt zu sein, wie ein Forschungsprojekt der University of Chicago derzeit eindrucksvoll belegt. "Mit unserem Algorithmus kann man sagen, dass es am nächsten Mittwoch an der Kreuzung 37th Street und Southwestern Avenue einen Mord geben wird", behauptet Ishanu Chattopadhyay, Professor an der University of Chicago und Entwickler des Algorithmus in der britischen Wissenschaftszeitschrift BBC Science Focus

Wie funktioniert der neue Algorithmus?

Der Algorithmus unterteilt eine beliebige Stadt in rund jeweils 92 Quadratmeter große Kacheln und verwendet die in der Vergangenheit erfassten polizeilichen Daten zu Gewalt- und Eigentumsdelikten, um künftige Verbrechen eine Woche im Voraus mit einer Genauigkeit von erstaunlichen etwa 90 Prozent vorherzusagen. An für sich nichts Neues, allerdings unterscheidet sich laut Chattopadhyay ihre Methode stark von anderen algorithmischen Vorhersagen dieser Art. Herkömmliche KI-Tools setzten demnach voraus, dass die Kriminalität von Brennpunkten ausgeht und sich von dort aus auf andere Gebiete ausweitet.

Solche Ansätze, so argumentiert der Forscher, ließen jedoch das komplexe soziale Umfeld von Städten außer Acht und würden durch die vom Staat zur Strafverfolgung eingesetzte Überwachung auch negativ beeinflusst. Der von Chattopadhyay entwickelte Algorithmus hingegen analysiert frühere Ereignisprotokolle – also detaillierte Berichte mit Informationen darüber, wann, wo und welche Art von Verbrechen stattgefunden hatte – unter Berücksichtigung vieler anderer Faktoren – und prognostiziere dann die Verbrechenswahrscheinlichkeit. 

"Wir beginnen mit diesem Ereignisprotokoll und digitalisieren dann die Stadt in kleine Bereiche von etwa zwei Blocks mal zwei Blocks – etwa 300 Meter im Durchmesser", erklärte der Professor. "Und in einer dieser Kacheln sehen wir diese Zeitreihe der verschiedenen Ereignisse, wie Gewaltverbrechen, Eigentumsdelikte, Tötungsdelikte und so weiter. Unser Algorithmus betrachtet diese sich gemeinsam entwickelnden Zeitreihen und findet heraus, wie abhängig sie voneinander sind und wie sie sich gegenseitig beeinflussen – wie sie sich also gegenseitig formen."

Bisher wurde das Programm in acht verschiedenen US-Städten getestet, darunter in Chicago, Los Angeles sowie Atlanta und Philadelphia. In einer separaten Versuchsreihe untersuchte das Team um Chattopadhyay auch die polizeiliche Reaktion auf Verbrechen, indem es die Anzahl der Verhaftungen nach strafrechtlich relevanten Vorfällen in Stadtvierteln mit unterschiedlichem sozioökonomischem Status analysierte und die dadurch gewonnenen Daten dann miteinander verglich. Sie stellten fest, dass Verbrechen in wohlhabenderen Gegenden zu mehr Verhaftungen führten, während die Zahl der Verhaftungen in benachteiligten Vierteln zurückging. Verbrechen in Armenvierteln führten jedoch nicht zu mehr Verhaftungen, was auf eine Voreingenommenheit bei der polizeilichen Reaktion und Durchsetzung von Gesetzen schließen lässt.

Von solchen interessanten Feststellungen abgesehen, lässt der Einsatz Künstlicher Intelligenz zur Strafverfolgung bei vielen jedoch die Alarmglocken läuten.

Gefahren der KI 

Denn sobald entsprechende Technologien vorhanden sind, werden sie – und auch das hat die Geschichte der menschlichen Zivilisation leider allzu oft gezeigt – oft auch missbraucht. Auch besteht die Fähigkeit von Algorithmen, Verbrechen vorherzusagen, lediglich darin, per definitionem unsichere Wahrscheinlichkeiten zu errechnen, die darüber hinaus zudem von vielen weiteren, unbekannten oder nicht vorhersehbaren Faktoren abhängig sind, wie auch Chattopadhyay nach der Veröffentlichung seiner Studie gegenüber US-Medien einräumte:

"Die Vergangenheit sagt nichts über die Zukunft aus. Die Frage ist: In welchem Maße beeinflusst die Vergangenheit tatsächlich die Zukunft? Und inwieweit sind die Ereignisse spontan oder wirklich zufällig? … Unsere Fähigkeit, Vorhersagen zu treffen, ist dadurch begrenzt."

Bereits seit Langem nutzt die Polizei jedes verfügbare Instrument, um Verbrechen aufzuklären oder gar vorherzusagen. Bevor es technologische Fortschritte gab, setzten sich Polizisten in Konferenzräumen zusammen und markierten mit Stecknadeln solche Orte, an denen zuvor Verbrechen verübt wurden. Dadurch erhofften sich die Ermittler, auffällige Häufungen ausfindig machen zu können, die ihnen Hinweise darauf geben würden, wo sie einen Täter als nächstes suchen sollten, um ihn dingfest zu machen.

In den letzten 15 Jahren begannen die größten Polizeidienststellen der USA, darunter jene in New York, Los Angeles und Chicago, über Möglichkeiten nachzudenken, die Künstliche Intelligenz einzusetzen, um Verbrechen nicht nur analysieren, sondern auch vorhersagen zu können. Bei ihrer Suche wandten sie sich an Unternehmen zur professionellen Datenanalyse wie PredPol und Palantir, die unter anderem auch Software zur präventiven Strafverfolgung entwickeln. Bei sämtlichen diesen "Predictive Policing Tools" werden Daten – wie etwa Verbrechensberichte, Verhaftungsprotokolle und auch Bilder von Nummernschildern – in einen Algorithmus eingespeist, der darauf programmiert ist, nach Mustern zu suchen. Anhand der gefundenen Muster lässt sich dann ungefähr vorhersagen, wo und wann eine bestimmte Art von Ereignissen, also hier Verbrechen, in Zukunft auftreten könnte, was allerdings zweifellos durchaus auch zu voreiligen Verhaftungen oder noch schlimmeren Maßnahmen der "Prävention" führen kann. 

So stützten sich die polizeilichen Bemühungen zur Verbrechensbekämpfung in der Regel auf Berichte über Straftaten, die implizit eine komplexe Beziehung zwischen Verbrechen, Polizeiarbeit und Gesellschaft widerspiegeln. Infolgedessen haben die Vorhersage von Verbrechen und die vorausschauende Polizeiarbeit eine Kontroverse ausgelöst, da die neuesten, auf Künstlicher Intelligenz basierenden Algorithmen nur begrenzte Einblicke in das soziale System der Kriminalität haben und die Beamten zudem auch zu falschen Rückschlüssen verleiten können. 

Wenn ein Algorithmus beispielsweise vorhersagt, dass ein Polizeibeamter an einem bestimmten Ort erschossen wird, und daraufhin mehr bewaffnete Polizisten in dieses Gebiet entsandt werden, könnte diese Vorhersage somit auch zu einer "sich selbst erfüllenden Prophezeiung" werden. Und obwohl Chattopadhyays Software in rund 90 Prozent der Fälle richtig liegen mag, bedeutet das noch lange nicht, dass damit auch mehr Verbrechen verhindert werden können. Es bedeutet lediglich, dass an den von der Software als Schauplatz künftiger Verbrechen vorhergesagten Orten, präventiv ein paar mehr Polizisten eingesetzt werden können, die in der Folge allerdings vermutlich jeden, der in diesen Gebieten verkehrt, als potenziell verdächtig betrachten könnten.

Am Ende des Films "Minority Report" zeigt das System Schwachstellen, die Vorhersagen manipulierbar machen und sowohl zu falschen Verdächtigungen als auch falschen Vorhersagen führen.

Neben den erhofften Vorzügen besteht bei der Verwendung von derartigen "Predictive Policing Tools" die nicht zu unterschätzende Gefahr, dass autoritäre Systeme sie dazu nutzen können, um störende Andersdenkende oder gar Oppositionelle "loszuwerden". Chattopadhyay schlussfolgert:

"Wir sind uns der Gefahr bewusst, dass leistungsstarke Prognoseinstrumente übereifrigen Staaten im Namen des Schutzes der Zivilbevölkerung in die Hände spielen. Meine Teamkollegen und ich haben viel darüber gesprochen, dass wir nicht wollen, dass es als rein prädiktives politisches Werkzeug eingesetzt wird. Wir wollen, dass es hauptsächlich zur Optimierung der Politik eingesetzt wird. Wir müssen dies ermöglichen, denn es reicht nicht aus, ein Papier aufzustellen und den Algorithmus zu haben. Wir wollen, dass der Bürgermeister oder die Administratoren das erzeugte Modell nutzen, um Simulationen durchzuführen und die Politik zu informieren."

Während viele andere Lebensbereiche stark von KI-Prognosen profitieren können, sollte die Polizei angesichts der nicht zu leugnenden Fehleranfälligkeit besser beraten sein, weiterhin auf menschliche Fähigkeiten statt auf Algorithmen zu setzten. Sicher klingt das pessimistisch, aber in Anbetracht des systematischen Missbrauchs ähnlicher experimenteller Software zur Unterstützung der Polizei – ganz zu schweigen von den systematischen Übergriffen auf gefährdete Bevölkerungsgruppen, die es in der Arbeit der US-Polizei ohnehin schon lange, ohne jegliche KI gibt – scheint dieser Pessimismus durchaus berechtigt zu sein.

Mehr zum Thema - Wenn die EU-Chatkontrolle aus besorgten Eltern Pädophile macht

Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.