
▶ CNN 원문 뉴스 바로가기
Apple abandons controversial plan to check iOS devices and iCloud photos for child abuse imagery | CNN Business
Ford F-150 Lightning named MotorTrend Truck of the Year, the second electric pickup in a row
www.cnn.com
애플, 아동학대 이미지 iOS 기기와 아이클라우드 사진 확인 계획 포기
<원문 1>
Apple is abandoning its plans to launch a controversial tool that would check iPhones, iPads and iCloud photos for child sexual abuse material (CSAM) following backlash from critics who decried the feature’s potential privacy implications.
Apple first announced the feature in 2021, with the goal of helping combat child exploitation and promoting safety, issues the tech community has increasingly embraced. But it soon put the brakes on implementing the feature amid a wave of criticism, noting it would “take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.” In a public statement Wednesday, Apple said it had “decided to not move forward with our previously proposed CSAM detection tool for iCloud Photos.”
<해설 1>
애플은 아이폰, 아이패드, 아이클라우드 사진을 아동 성학대 소재(CSAM)로 확인할 수 있는 논란의 도구를 출시하려던 계획을 포기했다.
애플은 2021년 어린이 착취와 싸우고 안전을 촉진하는 것을 목표로 이 기능을 처음 발표했다. 그러나 비난의 물결 속에서 그것은 곧 "이러한 매우 중요한 어린이 안전 기능을 출시하기 전에 입력 정보를 수집하고 개선하는 데 앞으로 몇 달 동안 추가 시간이 걸릴 것"이라고 언급하며 이 기능의 구현에 제동을 걸었다.
수요일 공개 성명에서 애플은 "이전에 제안한 아이클라우드 포토용 CSAM 탐지 도구를 진행하지 않기로 결정했다"라고 밝혔다.
<원문 2>
“Children can be protected without companies combing through personal data, and we will continue working with governments, child advocates, and other companies to help protect young people, preserve their right to privacy, and make the internet a safer place for children and for us all,” the company said in astatement
provided to Wired . (Apple did not respond to CNN’s request for comment.)Instead, the company is refocusing its efforts on growing its Communication Safety feature, which it first made available in December 2021, after consulting experts for feedback on its child protection initiatives. The Communication Safety tool is an opt-in parental control feature that warns minors and their parents when incoming or sent image attachments in iMessage are sexually explicit and, if so, blurs them. Apple was criticized in 2021 for its plan to offer a different tool that would start checking iOS devices and iCloud photos for child abuse imagery. At the time, the company said the tool would turn photos on iPhones and iPads into unreadable hashes — or complex numbers — stored on user devices. Those numbers would be matched against a database of hashes provided by the National Center for Missing and Exploited Children (NCMEC) once the pictures were uploaded to Apple’s iCloud storage service.
<해설 2>
"아이들은 회사가 개인 정보를 뒤지지 않고도 보호받을 수 있으며, 우리는 계속해서 정부, 아동 옹호자, 그리고 다른 회사들과 협력하여 젊은이들을 보호하고, 그들의 사생활 권리를 보호하며, 인터넷을 어린이들과 우리 모두에게 더 안전한 장소로 만들 것입니다, "라고 회사는 성명서에서 말했다. 유선에 제공됨
. (애플은 CNN의 논평 요청에 응하지 않았다.)대신 아동보호 시책에 대한 피드백을 위해 전문가 자문을 거쳐 2021년 12월 처음 출시한 통신안전 기능을 키우는 데 다시 힘을 쏟고 있다. 통신 안전 도구는 iMessage의 수신 또는 전송된 이미지 첨부 파일이 성적으로 노골적일 때 미성년자와 부모에게 경고하는 옵트인 보호자 통제 기능입니다.
애플은 2021년 iOS 기기와 아이클라우드 사진에서 아동학대 이미지를 확인할 수 있는 다른 도구를 제공하겠다는 계획으로 비판을 받았다. 당시 회사는 이 도구가 아이폰과 아이패드의 사진을 읽을 수 없는 해시(복잡한 숫자)로 바꿔 사용자 기기에 저장할 것이라고 말했다. 이 사진들이 애플의 아이클라우드 스토리지 서비스에 업로드되면 이 숫자들은 NCMEC(National Center for Missing and Ubroughed Children)가 제공하는 해시 데이터베이스와 비교될 것이다.
<원문 3>
Many child safety and security experts praised the attempt, recognizing the ethical responsibilities and obligations a company has over the products and services it creates. But they also called the efforts “deeply concerning,” stemming largely from how part of Apple’s checking process for child abuse images is done directly on user devices.
In a PDF published to its website outlining the technology, which it called NeuralHash, Apple attempted to address fears that governments could also force Apple to add non-child abuse images to the hash list. “Apple will refuse any such demands,” it stated. “We have faced demands to build and deploy government-mandated changes that degrade the privacy of users before, and have steadfastly refused those demands. We will continue to refuse them in the future.” Apple’s announcement about killing its plans for the tool came around the same time the company announced a handful of new security features.
Apple plans to bring expanded end-to-end encryption of iCloud data to include backups, photos, notes, chat histories and other services, in a move that could further protect user data but also add to tensions with law enforcement officials around the world. The tool, called Advanced Data Protection, will allow users to keep certain data more secure from hackers, governments and spies, even in the case of an Apple data breach, the company said.
<해설 3>
많은 어린이 안전 및 보안 전문가들은 회사가 만드는 제품과 서비스에 대해 갖는 윤리적 책임과 의무를 인식하면서 이 시도를 칭찬했다. 그러나 그들은 또한 이러한 노력을 "심각한 우려"라고 불렀는데, 이는 주로 애플의 아동학대 이미지 확인 프로세스의 일부가 사용자 기기에서 직접 수행되는 방식에서 비롯된다.
뉴럴 해시(NeuralHash)라고 불리는 이 기술의 개요를 웹사이트에 게시한 PDF에서, 애플은 정부가 애플이 아동학대가 아닌 이미지를 해시 목록에 추가하도록 강요할 수 있다는 우려를 해결하려고 시도했다. 애플은 이 같은 요구를 거부할 것이라고 밝혔다. "우리는 이전에 사용자의 개인 정보 보호를 저하시키는 정부가 요구하는 변경 사항을 구축하고 배포해야 한다는 요구에 직면해 왔으며, 이러한 요구를 단호히 거부해 왔습니다. 우리는 앞으로도 계속해서 그들을 거절할 것입니다."
이 도구에 대한 계획을 중단하겠다는 애플의 발표는 회사가 몇 가지 새로운 보안 기능을 발표한 때와 비슷한 시기에 나왔다.
애플은 백업, 사진, 노트, 채팅 기록 및 기타 서비스를 포함하도록 iCloud 데이터의 엔드 투 엔드 암호화를 확장할 계획이며, 이는 사용자 데이터를 더욱 보호할 뿐만 아니라 전 세계 사법 당국 관계자들과의 긴장을 가중시킬 수 있습니다. 고급 데이터 보호라고 불리는 이 도구는 사용자들이 애플의 데이터 침해가 발생하더라도 해커, 정부, 스파이로부터 특정 데이터를 더 안전하게 보호할 수 있게 해 준다고 회사는 말했다.
※ 위 글이 도움이되셨다면 아래 글도 클릭! 클릭!
CNN : 애플, 새로운 아이폰, 애플워치, 에어팟 공개/해외뉴스번역
▼ CNN 원문 뉴스 바로가기 Apple unveils new iPhones, Apple Watches and AirPods | CNN Business Epstein accusers sue JP Morgan and Deutsche Bank, claiming banks benefited from sex trafficking operation Nov 25, 2022 www.cnn.com 애플, 새로운 아
red.lifetangle.co.kr
'글로벌신기술' 카테고리의 다른 글
CNN : 미국 정부 기기에서 틱톡 금지 법안 통과 (0) | 2022.12.21 |
---|---|
CNN : 일론 머스크'극단적으로 강경한' 업무 최후통첩 (0) | 2022.11.21 |