{"id":27253,"date":"2021-09-01T12:45:16","date_gmt":"2021-09-01T10:45:16","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=27253"},"modified":"2021-09-30T18:06:18","modified_gmt":"2021-09-30T16:06:18","slug":"what-is-apple-csam-detection","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/what-is-apple-csam-detection\/27253\/","title":{"rendered":"So plant Apple die \u00dcberwachung von Nutzern"},"content":{"rendered":"<p>Anfang August 2021 stellte Apple <a href=\"https:\/\/www.theverge.com\/2021\/8\/5\/22611721\/apple-csam-child-abuse-scanning-hash-system-ncmec\" target=\"_blank\" rel=\"noopener nofollow\">sein neues System<\/a> zur Erkennung kinderpornographischer Inhalte vor. Obwohl die Motive von Apple \u2013 der Kampf gegen die Verbreitung von Kinderpornographie \u2013 unbestreitbar gut gemeint zu sein scheinen, erntete Apple nach dieser Ank\u00fcndigung sofort heftigste Kritik, die auch jetzt noch nicht vollkommen abgeebbt ist.<\/p>\n<p>Apple pflegt seit langem das Image eines Ger\u00e4teherstellers, der sich um die Privatsph\u00e4re seiner Nutzer k\u00fcmmert. Neue Funktionen, die f\u00fcr iOS 15 und iPadOS 15 erwartet werden, haben diesem Ruf bereits einen schweren Schlag versetzt; dennoch: das Unternehmen gibt nicht auf. Im Anschluss erfahren Sie, was Apple f\u00fcr die Zukunft plant und wie sich diese Pl\u00e4ne auf den durchschnittlichen iPhone- und iPad-Nutzer auswirken werden.<\/p>\n<h2>Was steht hinter der CSAM-Erkennung?<\/h2>\n<p>Die Pl\u00e4ne von Apple werden auf der <a href=\"https:\/\/www.apple.com\/child-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">Unternehmens<\/a>website genauer beschrieben. Der iPhone-Gigant hat ein System namens <em>CSAM Detection<\/em> entwickelt, das Nutzerger\u00e4te auf \u201eMaterial \u00fcber sexuellen Kindesmissbrauch\u201c, auch bekannt als CSAM, scannt.<\/p>\n<p>Obwohl \u201eKinderpornographie\u201c als Synonym f\u00fcr CSAM gilt, h\u00e4lt das <em>National Center for Missing and Exploited Children<\/em> (<a href=\"https:\/\/www.missingkids.org\/HOME\" target=\"_blank\" rel=\"noopener nofollow\">NCMEC<\/a>), das bei der Suche und Rettung vermisster und missbrauchter Kinder in den Vereinigten Staaten hilft, \u201eCSAM\u201c f\u00fcr den passenderen Begriff. Das NCMEC versorgt Apple und andere Technologieunternehmen mit Informationen \u00fcber bekannte CSAM-Inhalte (Fotos).<\/p>\n<p>Apple hat die CSAM-Erkennung zusammen mit mehreren anderen Funktionen eingef\u00fchrt, die die elterliche Kontrolle auf mobilen Apple-Ger\u00e4ten erweitern. So erhalten Eltern beispielsweise eine Benachrichtigung, falls jemand ihrem Kind ein sexuell eindeutiges Foto \u00fcber das Apple-Nachrichtensystem schickt.<\/p>\n<p>Die Vorstellung diverser neuer Apple-Technologien f\u00fchrte zu einiger Verwirrung unter den Nutzern, und viele Leute hatten den Eindruck, dass Apple Benutzer nun rund um die Uhr \u00fcberwachen m\u00f6chte. Das ist jedoch nicht der Fall.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial\"><\/strong><\/p>\n<h2>Zeitplan f\u00fcr die Einf\u00fchrung der CSAM-Erkennung<\/h2>\n<p><em>CSAM Detection<\/em> wird Teil der mobilen Betriebssysteme iOS 15 und iPadOS 15 sein, die im Herbst dieses Jahres f\u00fcr die Nutzer aller aktuellen iPhones und iPads (iPhone 6S, iPad der f\u00fcnften Generation und neuer) verf\u00fcgbar sein werden. Obwohl die Funktion theoretisch \u00fcberall auf der Welt auf mobilen Apple-Ger\u00e4ten verf\u00fcgbar sein wird, funktioniert das System vorerst nur in den Vereinigten Staaten vollst\u00e4ndig.<\/p>\n<h2>So funktioniert <em>CSAM Detection<\/em><\/h2>\n<p><em>CSAM Detection<\/em> funktioniert nur in Verbindung mit iCloud Photos, dem Teil des iCloud-Dienstes, der Fotos von einem Smartphone oder Tablet auf die Apple-Server hochl\u00e4dt. Er macht sie auch auf den anderen Ger\u00e4ten des Nutzers zug\u00e4nglich.<\/p>\n<p>Falls ein Nutzer die Fotosynchronisierung in den Einstellungen deaktiviert, funktioniert die CSAM-Erkennung nicht mehr. Bedeutet das, dass Fotos nur in der Cloud mit denen in kriminellen Datenbanken verglichen werden? Nicht ganz. Das System ist absichtlich komplex; Apple versucht, ein notwendiges Ma\u00df an Privatsph\u00e4re zu gew\u00e4hrleisten.<\/p>\n<p>Wie Apple <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">erkl\u00e4rt<\/a>, funktioniert die CSAM-Erkennung durch das Scannen von Fotos auf einem Ger\u00e4t, um festzustellen, ob sie mit Fotos in den Datenbanken des NCMEC oder anderer \u00e4hnlicher Organisationen \u00fcbereinstimmen.<\/p>\n<div id=\"attachment_27254\" style=\"width: 1270px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27254\" class=\"wp-image-27254 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2021\/09\/01122119\/what-is-apple-csam-detection-1.png\" alt=\"Vereinfachte Darstellung der Funktionsweise der CSAM-Erkennung\" width=\"1260\" height=\"640\"><p id=\"caption-attachment-27254\" class=\"wp-caption-text\">Vereinfachte Darstellung der Funktionsweise der CSAM-Erkennung.Quelle<\/p><\/div>\n<p>Die Erkennungsmethode verwendet die NeuralHash-Technologie, die im Wesentlichen digitale Identifikatoren oder Hashes f\u00fcr Fotos auf der Grundlage ihres Inhalts erstellt. Falls ein Hash mit einem in der Datenbank bekannter Bilder von Kindersch\u00e4ndern \u00fcbereinstimmt, werden das Bild und sein Hash auf die Server von Apple hochgeladen. Apple f\u00fchrt eine weitere Pr\u00fcfung durch, bevor das Bild offiziell registriert wird.<\/p>\n<p>Eine weitere Komponente des Systems, eine kryptografische Technologie namens <em>private set intersection<\/em>, verschl\u00fcsselt die Ergebnisse des CSAM-Detection-Scans, sodass Apple sie nur entschl\u00fcsseln kann, falls eine Reihe von Kriterien erf\u00fcllt ist. Theoretisch sollte dies verhindern, dass das System missbraucht wird, d. h., dass ein Unternehmensmitarbeiter das System missbraucht oder Bilder auf Anfrage von Regierungsbeh\u00f6rden aush\u00e4ndigt.<\/p>\n<p>In einem Interview mit dem <em>Wall Street Journal<\/em> vom 13. August <a href=\"https:\/\/www.wsj.com\/articles\/apple-executive-defends-tools-to-fight-child-porn-acknowledges-privacy-backlash-11628859600\" target=\"_blank\" rel=\"noopener nofollow\">erl\u00e4uterte<\/a> Craig Federighi, Apple\u2019s <em>Senior Vice President of Software Engineering<\/em>, die wichtigsten Sicherheitsvorkehrungen f\u00fcr das private Schnittmengenprotokoll: Um Apple zu alarmieren, m\u00fcssen 30 Fotos mit Bildern in der NCMEC-Datenbank \u00fcbereinstimmen. Wie das Diagramm unten zeigt, erlaubt das System der privaten Schnittmenge nicht, dass der Datensatz \u2013 bestehend aus Informationen \u00fcber den Betrieb der CSAM-Erkennung und den jeweiligen Fotos \u2013 entschl\u00fcsselt wird, bis dieser Mindestwert erreicht ist. Da der Grenzwert f\u00fcr die Kennzeichnung eines Bildes so hoch ist, ist laut Apple eine falsche \u00dcbereinstimmung sehr unwahrscheinlich \u2013 wortw\u00f6rtlich hei\u00dft es hier \u201eeine Chance von eins zu einer Billion\u201c.<\/p>\n<div id=\"attachment_27255\" style=\"width: 1150px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27255\" class=\"wp-image-27255 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2021\/09\/01122227\/what-is-apple-csam-detection-2.png\" alt=\"Eine wichtige Funktion der CSAM-Erkennung: Um Daten zu entschl\u00fcsseln, muss eine gro\u00dfe Anzahl von Fotos \u00fcbereinstimmen\" width=\"1140\" height=\"700\"><p id=\"caption-attachment-27255\" class=\"wp-caption-text\">Eine wichtige Funktion der CSAM-Erkennung: Um Daten zu entschl\u00fcsseln, muss eine gro\u00dfe Anzahl von Fotos \u00fcbereinstimmen.Source<\/p><\/div>\n<p>Was passiert, wenn das System alarmiert wird? Ein Apple-Mitarbeiter \u00fcberpr\u00fcft die Daten manuell, best\u00e4tigt die Existenz kinderpornographischer Inhalte und benachrichtigt die Beh\u00f6rden. Vorerst wird das System nur in den Vereinigten Staaten voll funktionsf\u00e4hig sein, sodass die Meldung an das NCMEC geht, das vom US-Justizministerium unterst\u00fctzt wird.<\/p>\n<h2>Probleme mit <em>CSAM Detection<\/em><\/h2>\n<p>M\u00f6gliche Kritik an Apples Vorhaben l\u00e4sst sich in zwei Kategorien einteilen: In Frage stellen des Ansatzes des Unternehmens und Hinterfragen der Schwachstellen des Protokolls. Derzeit gibt es kaum konkrete Beweise daf\u00fcr, dass Apple einen technischen Fehler begangen hat (ein Thema, auf das wir weiter unten n\u00e4her eingehen werden), obwohl es an allgemeinen Beschwerden nicht mangelt.<\/p>\n<p>So hat beispielsweise die <em>Electronic Frontier Foundation<\/em> diese Probleme sehr detailliert <a href=\"https:\/\/www.eff.org\/deeplinks\/2021\/08\/if-you-build-it-they-will-come-apple-has-opened-backdoor-increased-surveillance\" target=\"_blank\" rel=\"noopener nofollow\">beschrieben<\/a>. Nach Ansicht der <em>EFF<\/em> integriert Apple durch das Hinzuf\u00fcgen von Bildscans auf der Benutzerseite im Grunde eine Backdoor. Die <em>EFF<\/em> <a href=\"https:\/\/www.eff.org\/deeplinks\/2019\/11\/why-adding-client-side-scanning-breaks-end-end-encryption\" target=\"_blank\" rel=\"noopener nofollow\">kritisiert<\/a> das Konzept bereits seit 2019.<\/p>\n<p>Was daran schlecht ist? Stellen Sie sich vor, Sie besitzen ein Ger\u00e4t, auf dem Daten vollst\u00e4ndig verschl\u00fcsselt werden (wie Apple behauptet), das aber dann damit anf\u00e4ngt, Au\u00dfenstehende \u00fcber bestimmte Inhalte zu informieren. Moment geht es hierbei nur um das Thema Kinderpornographie, und selbstverst\u00e4ndlich k\u00f6nnte man in diesem Fall sagen: \u201eWenn du nichts zu verbergen hast, musst du dir auch keine Sorgen machen\u201c. Doch solange ein solcher Mechanismus \u00fcberhaupt existiert, k\u00f6nnen wir nicht zu 100%iger Sicherheit wissen, ob dieser nicht auch f\u00fcr andere Inhalte verwendet wird.<\/p>\n<p>Letztlich ist diese Kritik eher politischer als technischer Natur. Das Problem liegt darin, dass es keinen Gesellschaftsvertrag gibt, der ein Gleichgewicht zwischen Sicherheit und Privatsph\u00e4re herstellt. Wir alle \u2013 von B\u00fcrokraten, Ger\u00e4teherstellern und Softwareentwicklern bis hin zu Menschenrechtsaktivisten und einfachen Nutzern \u2013 versuchen jetzt, dieses Gleichgewicht zu definieren.<\/p>\n<p>Strafverfolgungsbeh\u00f6rden beschweren sich dar\u00fcber, dass die weit verbreitete Verschl\u00fcsselung das Sammeln von Beweisen und die Festnahme von Kriminellen erschwert, und das ist verst\u00e4ndlich. Die Bedenken \u00fcber digitale \u00dcberwachung sind ebenfalls offensichtlich. Meinungen, auch zu den Richtlinien und Aktionen von Apple, gibt es wie Sand am Meer.<\/p>\n<h2>Die Problematik bei der Umsetzung der CSAM-Erkennung<\/h2>\n<p>Sobald wir die ethischen Bedenken hinter uns gelassen haben, sto\u00dfen wir auf heikle technische Gegebenheiten. Jeder Programmcode erzeugt neue Schwachstellen. Was w\u00e4re, wenn ein Cyberkrimineller die Schwachstellen der <em>CSAM Detection<\/em> ausnutzen w\u00fcrde? Wenn es um Datenverschl\u00fcsselung geht, ist die Besorgnis nat\u00fcrlich und berechtigt: Falls der Schutz von Informationen geschw\u00e4cht wird, selbst wenn dies nur in guter Absicht geschieht, kann jeder diese Schwachstelle f\u00fcr andere Zwecke ausnutzen.<\/p>\n<p>Eine unabh\u00e4ngige Pr\u00fcfung des <em>CSAM-Detection-Codes<\/em> hat gerade erst begonnen und k\u00f6nnte sehr lange dauern. Wir haben jedoch bereits einige Dinge gelernt.<\/p>\n<p>Erstens <a href=\"https:\/\/www.macobserver.com\/news\/neural-hash-extracted\/\" target=\"_blank\" rel=\"noopener nofollow\">gibt<\/a> es in iOS (und macOS) seit Version 14.3 einen Code, der es erm\u00f6glicht, Fotos mit einem \u201eModell\u201c zu vergleichen. Es ist durchaus m\u00f6glich, dass dieser Code Teil von <em>CSAM Detection<\/em> sein wird. <a href=\"https:\/\/github.com\/AsuharietYgvar\/AppleNeuralHash2ONNX\" target=\"_blank\" rel=\"noopener nofollow\">Dienstprogramme<\/a> zum Experimentieren mit einem Suchalgorithmus f\u00fcr den Abgleich von Bildern haben bereits einige <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">\u00dcbereinstimmungen<\/a> gefunden. Laut Apples NeuralHash-Algorithmus haben zum Beispiel die beiden folgenden Bilder denselben Hash:<\/p>\n<div id=\"attachment_27256\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27256\" class=\"wp-image-27256 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/96\/2021\/09\/01122543\/what-is-apple-csam-detection-3.png\" alt=\"Laut dem NeuralHash-Algorithmus von Apple stimmen diese beiden Fotos \u00fcberein\" width=\"740\" height=\"360\"><p id=\"caption-attachment-27256\" class=\"wp-caption-text\">Laut dem NeuralHash-Algorithmus von Apple stimmen diese beiden Fotos \u00fcberein.Source<\/p><\/div>\n<p>Falls es m\u00f6glich ist, die Datenbank mit den Hashes illegaler Fotos abzurufen, ist es m\u00f6glich, \u201eharmlose\u201c Bilder zu erstellen, die eine Warnung ausl\u00f6sen, d. h., Apple k\u00f6nnte so viele falsche Warnungen erhalten, dass die CSAM-Erkennung nicht mehr aufrechterhalten werden kann. Das ist h\u00f6chstwahrscheinlich der Grund, warum Apple die Erkennung getrennt hat, wobei ein Teil des Algorithmus nur auf der Serverseite arbeitet.<\/p>\n<p>Es gibt auch diese <a href=\"https:\/\/pseudorandom.resistant.tech\/obfuscated_apples.html\" target=\"_blank\" rel=\"noopener nofollow\">Analyse<\/a> von Apples <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/Apple_PSI_System_Security_Protocol_and_Analysis.pdf\" target=\"_blank\" rel=\"noopener nofollow\"><em>private set intersection<\/em><\/a>-Protokoll. Die Kritik besteht im Wesentlichen darin, dass das PSI-System schon vor Erreichen der Warnschwelle eine ganze Reihe von Informationen an die Apple-Server \u00fcbermittelt. In dem Artikel wird ein Szenario beschrieben, in dem Strafverfolgungsbeh\u00f6rden die Daten von Apple anfordern, und es wird angedeutet, dass selbst falsche Warnungen zu einem Besuch der Polizei f\u00fchren k\u00f6nnten.<\/p>\n<p>Vorerst handelt es sich nur um erste Tests f\u00fcr eine externe \u00dcberpr\u00fcfung von <em>CSAM Detection<\/em>. Der Erfolg wird weitgehend davon abh\u00e4ngen, ob das f\u00fcr seine Geheimniskr\u00e4merei bekannte Unternehmen Transparenz in die Arbeitsweise von <em>CSAM Detection<\/em> \u2013 und insbesondere in seinen Quellcode \u2013 bringt.<\/p>\n<h2>Was bedeutet <em>CSAM Detection<\/em> f\u00fcr den durchschnittlichen Benutzer?<\/h2>\n<p>Moderne Ger\u00e4te sind so komplex, dass es nicht einfach ist, festzustellen, wie sicher sie wirklich sind. Will meinen, inwieweit sie den Versprechungen des Herstellers gerecht werden. Das Einzige, was wir tun k\u00f6nnen, ist, dem Unternehmen aufgrund seines Rufs zu vertrauen \u2013 oder zu misstrauen.<\/p>\n<p>Es ist jedoch wichtig, sich diesen wichtigen Punkt zu merken: Die CSAM-Erkennung funktioniert nur, falls Nutzer Fotos in die iCloud hochladen. Die Entscheidung von Apple war bewusst und hat einige der Einw\u00e4nde gegen die Technologie vorweggenommen.<\/p>\n<p>Vielleicht erinnern Sie sich an den ber\u00fcchtigten <a href=\"https:\/\/de.wikipedia.org\/wiki\/Terroranschlag_in_San_Bernardino\" target=\"_blank\" rel=\"noopener nofollow\">Konflikt<\/a> zwischen Apple und dem FBI im Jahr 2016, als das FBI Apple um Hilfe bei der Entsperrung eines iPhone 5C bat, das einem Amokl\u00e4ufer in San Bernardino, Kalifornien, geh\u00f6rte. Das FBI forderte Apple dazu auf eine Software zu schreiben, um den Passwortschutz des Telefons umgehen zu k\u00f6nnen.<\/p>\n<p>Das Unternehmen weigerte sich jedoch, da auf diese Weise nicht nur das Telefon des Sch\u00fctzen, sondern auch die Handys anderer Personen h\u00e4tten entsperrt werden k\u00f6nnen. Das FBI lenkte ein und hackte das Ger\u00e4t schlie\u00dflich mit externer Hilfe, indem es <a href=\"https:\/\/www.washingtonpost.com\/gdpr-consent\/?next_url=https%3a%2f%2fwww.washingtonpost.com%2ftechnology%2f2021%2f04%2f14%2fazimuth-san-bernardino-apple-iphone-fbi%2f\" target=\"_blank\" rel=\"noopener nofollow\">die Schwachstellen der Software ausnutzte<\/a>, w\u00e4hrend Apple seinen Ruf als Unternehmen, das f\u00fcr die Rechte seiner Kunden k\u00e4mpft, aufrechterhielt.<\/p>\n<p>Allerdings ist die Geschichte nicht ganz so einfach. Apple hat eine Kopie der Daten aus der iCloud herausgegeben. Tats\u00e4chlich hat das Unternehmen <a href=\"https:\/\/www.reuters.com\/article\/us-apple-fbi-icloud-exclusive-idUSKBN1ZK1CT\" target=\"_blank\" rel=\"noopener nofollow\">Zugriff<\/a> auf praktisch alle Nutzerdaten, die in die Cloud hochgeladen werden. Einige, z. B. <a href=\"https:\/\/support.apple.com\/de-de\/HT202303\" target=\"_blank\" rel=\"noopener nofollow\">Schl\u00fcsselbund-Passw\u00f6rter und Zahlungsinformationen<\/a>, werden mit einer Ende-zu-Ende-Verschl\u00fcsselung gespeichert, aber die meisten Informationen sind nur zum Schutz vor <em>unerlaubtem<\/em> Zugriff verschl\u00fcsselt \u2013 d. h., vor einem Server-Hack. Das bedeutet, dass das Unternehmen die Daten entschl\u00fcsseln kann.<\/p>\n<p>Die Implikationen sind vielleicht die interessanteste Wendung in der Geschichte der CSAM-Erkennung. Das Unternehmen k\u00f6nnte zum Beispiel einfach alle Bilder in iCloud Photos scannen (wie es Facebook, Google und viele andere Cloud-Anbieter tun). Apple hat einen wesentlich eleganteren Mechanismus entwickelt, der dem Unternehmen helfen w\u00fcrde, den Vorwurf der Massen\u00fcberwachung von Nutzern abzuwehren, aber stattdessen hat es noch mehr Kritik auf sich gezogen \u2013 f\u00fcr das Scannen der Ger\u00e4te der Nutzer.<\/p>\n<p>Letztendlich \u00e4ndert das Tohuwabohu f\u00fcr den Durchschnittsnutzer kaum etwas. Falls Sie um den Schutz Ihrer Daten besorgt sind, sollten Sie <em>jeden<\/em> Cloud-Dienst mit einem kritischen Auge betrachten. Daten, die Sie nur auf Ihrem Ger\u00e4t speichern, sind immer noch sicher. Die j\u00fcngsten Handlungen von Apple haben begr\u00fcndete Zweifel ges\u00e4t. Ob das Unternehmen in diesem Sinne weitermachen wird, bleibt derzeit eine offene Frage.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial\"><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Apple plant, sein neues CSAM-System zur Erkennung kinderpornographischer Inhalte zu nutzen, um Nutzer zu \u00fcberwachen und Eigent\u00fcmer solcher Inhalte zu identifizieren.<\/p>\n","protected":false},"author":665,"featured_media":27257,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2286,2287],"tags":[109,122,50,413,19,645,341],"class_list":{"0":"post-27253","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-privacy","8":"category-technology","9":"tag-apple","10":"tag-datenschutz","11":"tag-ios","12":"tag-ipad","13":"tag-iphone","14":"tag-technologie","15":"tag-uberwachung"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/what-is-apple-csam-detection\/27253\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/what-is-apple-csam-detection\/23225\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/what-is-apple-csam-detection\/18712\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/what-is-apple-csam-detection\/9359\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/what-is-apple-csam-detection\/25274\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/what-is-apple-csam-detection\/23344\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/what-is-apple-csam-detection\/22723\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/what-is-apple-csam-detection\/25890\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/what-is-apple-csam-detection\/25409\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/what-is-apple-csam-detection\/31362\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/what-is-apple-csam-detection\/9971\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/what-is-apple-csam-detection\/41502\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/what-is-apple-csam-detection\/17541\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/what-is-apple-csam-detection\/18025\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/what-is-apple-csam-detection\/15203\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/what-is-apple-csam-detection\/31527\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/what-is-apple-csam-detection\/27462\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/what-is-apple-csam-detection\/24270\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/what-is-apple-csam-detection\/29599\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/what-is-apple-csam-detection\/29404\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ios\/","name":"iOS"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/27253","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/665"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=27253"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/27253\/revisions"}],"predecessor-version":[{"id":27258,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/27253\/revisions\/27258"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/27257"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=27253"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=27253"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=27253"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}