wir müssen über das Konzept der Zustimmung nachdenken

Seit den Mitgliedern des Quebec Institute of Artificial Intelligence (Mila) haben angekündigt, eine Coronavirus-Tracking-App zu starten. Wenn sie sich in der Nähe von jemandem mit dem Virus befunden haben, Benutzer von COVI – der Name, der Milas Bewerbung gegeben wurde – erhält Empfehlungen, die es ihnen ermöglichen, ihre sozialen Interaktionen besser zu planen oder sich testen zu lassen.

Da die Anwendung personenbezogene Daten über ihre Benutzer sammelt, sind einige Journalisten und Wissenschaftler dennoch besorgt, dass sie das Recht auf Privatsphäre ihrer Benutzer verletzen und sogar am “Überwachungskapitalismus” teilnehmen könnte.

Am 22. Mai wurde die Kolumnistin Aurélie Lanctôt erregte unsere Aufmerksamkeit zu diesem Konzept, das von Shoshana Zuboff, emeritierte Professorin an der Harvard Business School, populär gemacht wurde. In jüngerer Zeit erwähnte es der Kriminologe Benoît Dupont auf den Seiten von La Conversation während einer Reflexion über den möglichen Missbrauch der Überwachung personenbezogener Daten.



Lesen Sie mehr: Covid-19: Mögliche Missbräuche bei der Überwachung personenbezogener Daten


Laut Zuboff verwenden die Webgiganten jetzt künstliche Intelligenz, um massiv Daten über ihre Nutzer zu sammeln, von denen sie dann durch den Verkauf gezielter Anzeigen profitieren können. Im Zeitalter der digitalen Technologien ist die begehrteste Ressource kein Edelmetall, sondern die persönliche Information, die Internetnutzer an Technologieunternehmen übermitteln, oft ohne es zu wissen.

Kein “Überwachungskapitalismus”

Sofern die Privatsphäre der Benutzer heute durch die massive Datenerfassung bedroht ist, erscheint es mir ratsam, den ethischen Wert der Nachverfolgung von Anwendungen in Frage zu stellen. Leider bedeutet die Verbindung von Mila mit dem Überwachungskapitalismus, zwei entscheidende Unterschiede zwischen den Praktiken des Instituts und denen der großen Technologieunternehmen aufzuheben.

Professor Yoshua Bengio von der Universität von Montreal gründete 1993 das Quebec Institute of Artificial Intelligence (Mila). Mila arbeitet aktiv an der Entwicklung einer Tracking-Anwendung gegen Covid-19.
DIE KANADISCHE PRESSE / Graham Hughes

Zunächst einmal, wie Yoshua Bengio und Marc-Antoine Dilhac kürzlich erklärt haben auf den Seiten von DevoirDie von COVI gesammelten Daten werden nicht für kommerzielle Zwecke verwendet. Es ist daher irreführend zu implizieren, dass die Logik, die die Entwicklung von COVI regelt, kapitalistisch oder marktbezogen ist. Da der Code der von Mila entwickelten Algorithmen Open Access sein wird, ist die Ideologie des Instituts näher an derOpen Source, eine Bewegung, bei der die Zusammenarbeit Vorrang vor dem finanziellen Gewinn hat.

Reflexion über Einwilligung erforderlich

Der zweite große Unterschied zwischen Milas Projekt und dem Überwachungskapitalismus betrifft den Begriff der Zustimmung. In seinem funktioniertZuboff kritisiert zu Recht, was sie die Methode nennt Google Street View Datensammlung. Diese Methode führt dazu, dass Technologieunternehmen die Daten ihrer Benutzer ohne Einverständniserklärung stehlen. Wenn Google seine Autos zum Fotografieren der Straßen von Montreal schickt, fragt das amerikanische multinationale Unternehmen Fußgänger niemals, ob sie damit einverstanden sind, dass solche Bilder online veröffentlicht werden. Aus diesem Grund erscheint es vernünftig zu berücksichtigen, dass die Grundrechte der Öffentlichkeit nicht respektiert werden.

Wenn Google seine Autos zum Fotografieren der Straßen von Montreal schickt, fragt das amerikanische multinationale Unternehmen Fußgänger niemals, ob sie damit einverstanden sind, dass solche Bilder online veröffentlicht werden. Auf dem Foto fährt ein Google-Auto am 11. September 2017 durch die Straßen von Quebec.
Shutterstock

Umgekehrt plant Mila, die Zustimmung der COVI-Benutzer in den verschiedenen Phasen der Weitergabe ihrer Informationen an die App einzuholen. Auf den ersten Blick wird daher niemand beobachtet, ohne es zu wissen. Trotz dieser Tatsache werfen die Überlegungen von Aurélie Lanctôt und Benoit Dupont eine Frage auf, die nach wie vor unter theoretisiert ist Technosolutionisten und von denen, die sie kritisieren. In der Ära von Große DatenWelche Bedingungen müssen erfüllt sein, damit Nutzer digitaler Technologien der Erhebung ihrer personenbezogenen Daten tatsächlich zugestimmt haben? Bevor wir uns auf Algorithmen zum Schutz der öffentlichen Gesundheit stützen, sollten wir meines Erachtens eine demokratische Reflexion über das Konzept der Zustimmung beginnen.

In einer heißen Sommernacht in Montreal habe ich versucht, einen BIXI zu mieten, um nach Hause zu gehen. Ich wurde dann gebeten, hundert Seiten mit Nutzungsbedingungen auf einem kleinen Bildschirm zu lesen, der in die Fahrradstation integriert war. Da es nach Mitternacht war, sprang ich sofort zum Ende des Textes und klickte auf “Ich akzeptiere”. Habe ich in dieser Situation der Stadt Montreal meine Einverständniserklärung gegeben? Da digitale Anwendungen häufig erfordern, dass ihre Benutzer innerhalb weniger Sekunden eine beeindruckende Menge an Informationen verarbeiten, können wir davon ausgehen, dass Benutzer jedes Mal ihre Zustimmung geben, wenn sie den Nutzungsbedingungen zustimmen?

Die Grenzen anonymer Daten

Einer meiner Gründe, nein zu sagen, ist, dass der durchschnittliche Benutzer digitaler Anwendungen nicht immer das Wissen hat, um zu verstehen, womit er einverstanden sein soll. Mila versucht, zukünftige COVI-Benutzer zu beruhigen, indem sie betont, dass ihre persönlichen Daten “deidentifiziert” werden. Im Allgemeinen haben solche Daten keinen Namen. Wird das Institut jedoch weitere Schritte unternehmen, um sicherzustellen, dass Benutzer seiner Tracking-Anwendung niemals identifiziert werden können?

Leider ist die Deidentifizierung manchmal mit bestimmten Risiken verbunden. Im Jahr 2006 veröffentlichte Netflix nicht identifizierte personenbezogene Daten im Rahmen von a Wettbewerb Einladung der Öffentlichkeit, einen Empfehlungsalgorithmus für seine Filme zu entwerfen. Kurz darauf gaben Forscher der University of Texas bekannt, dass es ihnen gelungen war, einigen nicht identifizierten Profilen echte Namen zuzuweisen. Der Mechanismus, der ihnen dies ermöglichte, ist einfach; wenn jemand die Merkmale einer Person kennt – Name, Alter, Geschlecht, Postleitzahl usw. – und dass er dann einen Datensatz konsultiert, in dem ein einzelnes nicht identifiziertes Profil alle diese Merkmale aufweist, kann er mit Sicherheit beurteilen, dass dieses Profil das dieser Person ist.

In öffentlichen Debatten über den Einsatz neuer Technologien nehmen wir uns selten die Zeit, um zu erklären, dass es in der Informatik mehrere Anonymitätsmodelle gibt, die ein unterschiedliches Maß an Schutz der Privatsphäre der Benutzer gewährleisten. Solange COVI-Benutzer jedoch nicht über weitere Informationen zum Anonymitätsmodell von Mila verfügen, bleibt es schwierig zu berücksichtigen, dass sie der Erfassung ihrer persönlichen Daten wissentlich zustimmen. Um unsere Grundrechte zu schützen, brauchen wir vor allem eine aufgeklärte Öffentlichkeit, die selbst entscheiden kann, welches Risiko sie eingehen will.

Please follow and like us:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.