RIS51: Apple und die CSAM-Detektion
Tobias und Jens haben sich wieder zu einer Aufnahme zusammen gefunden. In den letzten Wochen gab es recht viele Themen, die sich fĂĽr die Sendung eignen. Wir diskutieren einiges an und wenden uns dann Apple zu.
In neueren Varianten des Betriebssystems soll es eine Erkennung von Child Sexual Abuse Material (CSAM, dokumentierter Kindesmissbrauch) geben. Das Erkennungsystem prĂĽft dabei lokale Dateien vor dem Upload in die iCloud. Wir diskutieren die Vor- und Nachteile dieses Ansatzes.