Wird Apple die CSAM-Technologie nur verwenden, um Kinderpornografie zu bekämpfen? Der Bundestag hat daran ernsthafte Zweifel.
Seit Apfel hat sein neues Tool zur Bekämpfung von Kinderpornografie und dem Phänomen des Kindesmissbrauchs angekündigt, immer noch werden Stimmen laut, die den Giganten von Kupertino kritisieren. Allerdings hat das Gehäuse einen weiteren Boden.
Auf dem Papier sieht alles super aus: Die neue Technologie scannt Fotos auf dem Telefon des Benutzers, um Kinderpornografie zu finden und durchsuchte die Datenbank der vermissten Kinder nach Fotos von Kindern. Er schickt sie dann zur Einsicht und informiert bei Bestätigung die zuständigen Dienststellen. Die ganze Idee sieht also großartig aus und Apple ist definitiv die besten Absichten.
Überprüfen Sie auch:
Theoretisch sieht das so aus. In der Praxis haben jedoch viele Leute, darunter Kryptographen, ihre gemeldet Zweifel am Einsatz von Technik. Das öffnet vielen Verstößen Tür und Tor. Das System selbst kann Bilder melden, die eigentlich keinen Inhalt enthalten, der von Kindern verwendet werden kann, aber der Algorithmus gleicht sie mit den Schemata in seiner Datenbank ab.
Die zweite und schwerwiegendere Beschwerde ist, dass dank dieser Technologie Apple aktiviert möglicherweise in Zukunft andere Inhaltserkennungdie das Thema Minderjährige nicht anspricht und als Ergebnis werde ein Spionagewerkzeug iPhone-Nutzer.
Sie haben kürzlich berichtet, dass sie Zweifel hatten Abgeordnete des Deutschen Bundestages, zusammen mit Manuel Hoferlin, Vorsitzender des Technologieausschusses des Bundestages an vorderster Front. Er schickte sogar direkt Brief an Tim Cook, Apple-CEO, in dem er sagte, Apple ging auf einen gefährlichen Weg und das vielleicht die Sicherheit und Vertraulichkeit der Kommunikation gefährden.
Hoferlins behauptet auch, dass neue Technologien entstehen könnten das größte Spionagetool aller Zeiten und könnte Apple in vielen Märkten kosten, wenn das Unternehmen beschließt, es einzuführen.
Apfel hat bereits frühere kryptografische Behauptungen widerlegt und behauptet, dass wird keiner Regierung erlauben, das Programm zu nutzen und wird nur zur Bekämpfung von Gewalt gegen Kinder verwendet. Auch dazu gab der Riese von Cupertino Auskunft Das CSAM-System scannt nur Fotos, die in iCloud gespeichert sindnicht im Telefonspeicher. Wenn iPhone-Benutzer dieses Tool nicht verwenden, werden ihre Daten nicht überprüft. Die Technologie wird auch den Videoinhalt nicht überprüfen.
Apple wird außerdem einen ausführlichen Artikel veröffentlichen, in dem die Funktionsweise des Systems beschrieben wird.
„Bier-Evangelist. Alkohol-Ninja. Leidenschaftlicher Zombie-Liebhaber. Zukünftiges Teenie-Idol. Musikfan. Popkultur-Kenner.“