Apple po përballet me kritika për një sistem të ri që gjen materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë. Teknologjia do të kërkojë ndeshje të CSAM të njohura para se imazhi të ruhet në iCloud Photos. Por ka shqetësime se teknologjia mund të zgjerohet dhe…