AI 기술을 무기 개발에 사용않겠다고 하는 구글


"개발하고 있는 AI 기술을 군사 기술로 전용하고 있다"라고하는 Google 직원으로부터 비판을 받고, Google이 "AI 기술 개발의 원칙"을 발표했다. 여기에는 AI 기술을 개발하기 위한 목적 7가지 뿐만 아니라 "무기 개발에는 사용하지 않는다" 등 구체적인 예를 들어 선언되어 있다.



Google은 미 국방부(펜타곤)에 AI 기술을 제공하는 것을 Google 직원들이 반발한 것이 예전에 화제가 되었었다.


AI 기술로 세계를 선도하는 Google의 군사 기술 협력에 대해 세간의 비난은 강력했고, 무엇보다 4000명 이상의 Google 직원의 강력한 반발로 드디어 선다 피아치 CEO 스스로 "Google의 AI 이용의 원칙"을 선언하는 사태로 까지 번졌었다.




Google은 "AI는 이미 Google 서비스에서 실용화하고 있는 이상으로 다양한 분야에 활용의 장을 넓혀나가고 있으며, 앞으로도 더 활용 장면이 늘어날 것이다"며 이에 따라 AI 기술이 사회에 미치는 영향은 크게 될 것이라고 말하고 있다. 그리고 AI 기술 개발의 리더로서 AI 기술에 관한 명확한 지침은 다음과 같다고 선언하고 있다.



■ AI를 개발하는 목적


1. 사회적으로 도움이 될것

잠재적인 AI 기술의 개발과 이용에 있어서는, 다양한 사회 경제적 요인을 고려하여 예측 가능한 위험과 실패를 대폭 상회 할 "가능성"이 있다고 판단하는 경우에 AI 기술을 개발한다.


2. 부당한 편견을 조장하지 않는다

알고리즘과 데이터베이스는 "불공평한 바이어스(편견)"을 받기 쉬운 것으로, 그 메커니즘은 복잡하다는 것을 인정하고 있다. 인종, 민족, 성별, 국적, 소득, 버릇, 능력, 정치 사상, 종교적 신념 등 특히 민감한 것에 대한 부당한 영향을 주지 않도록 노력.




3. 창조도 테스트도 안전하게

의도하지 않은 해악이 생기는 것을 방지하기 위해 "안전"에 대한 배려를 계속한다. 제한된 환경에서 AI 기술을 테스트하고 서비스 배포 후에도 감시한다.


4. 사람에 대해 책임을 가진다

적절한 피드백, 관련 한 설명, 소구의 기회를 마련 할 수있도록 AI 시스템을 설계한다.



5. 개인 정보 보호에 배려한 설계

AI 기술의 개발, 이용에 개인 정보 보호 원칙을 도입한다. 통지, 동의의 기회를 제공하고, 개인 정보 보호 기능을 갖춘 아키텍처를 장려하고, 데이터 이용에 대한 적절한 투명성과 컨트롤을 갖게한다.


6. 높은 과학적 미덕의 기준을 지지

기술혁신은 과학적인 검증, 오픈 조사, 지적 인 엄격성, 안전성, 협조로 이루어진다. AI 도구는 생물학, 화학, 의학, 환경 과학 등의 중요한 분야의 연구, 식견을 개척 가능성을 가진다는 점을 감안하여 AI 개발은 과학적 미덕에 대해 높은 기준의 유지를 목표로 한다. 그리고 과학 분야의 사려 깊은 리더십을 촉진하기 위해 다양한 관계자들과 협력 해 나간다.


7. 이러한 원칙에 따라 사용할 수있도록 노력

AI 기술의 개발은 "기술의 주된 목적, 이용법과 얼마나 관계가 있는지. 남용의 가능성이 있는가?", "기술이 독창적이거나 일반적인 이용 가능성이 있느냐", "사회에 큰 영향을 미칠 것인가", "일반적인 도구를 제공하고 있는지, 도구를 통합하고 있는 솔루션을 발전시키고 있는가" 등의 요소를 고려한다.


이 "AI를 개발하기 위한 목적" 이외에 "AI를 개발하지 않는 분야"에 대해서도 밝히고 있다.


■ 개발하지 않는 AI 기술


1. 큰 해악을 야기시키거나 일으킬 수 있는 기술


2. 사람들을 직접 손상 또는 손상을 촉진하는 것을 목적으로하는 무기와 그 기타 기술


3. 국제 규범에 위반하는 형태로 정보의 수집과 이용


4. 국제법과 인권의 원칙에 위배되는 목적을 가진 기술