NeuroWhAI의 잡블로그
맥스 테그마크의 '라이프 3.0'(Life 3.0) 책 리뷰 본문
제가 이런류 책은 잘 안읽어서 그런지 몰라도 정말 신선했고 읽기 잘했다는 생각이 들었습니다.
인공지능의 미래에 대해 좀 더 넓고 깊게, 잘 생각해보고 싶은 사람이거나 기자라면 필독해야 할 책이 아닐까 싶습니다.
저자가 인공지능과 생명의 미래를 위해 직접 단체(참여자 스펙이 대단합니다)도 만들어 활동하고 있으니 더욱 신뢰도가 높습니다.
이 책은 처음부터 끝까지 모든 일에 대해 가능성을 열어두고 왜 가능성을 열어두는지, 어떻게 대비할 수 있을지, 그 대비책은 또 어떻게 회피될 수 있을지 말해줍니다.
또한 우리가 어떻게 생각하고 행동해야 하는지 계속해서 주장하고 설득합니다.
몇 개의 단편으로 가상 시나리오도 포함되어 있는데 SF 소설을 읽는 것처럼 정말 재밌습니다.
어떻게 이런 생각들이 나오지 싶었습니다.
이런 사람들이 인공지능과 생명의 미래를 위해 머리를 쓰고 있다고 하니 든든합니다.
여담으로 저자와 옮긴이는 맨날 킬링머신 이야기만 하는 기자들이 많이 싫었나 봅니다. (저도 싫습니다)
아래는 FLI(Future of Life Institute) 사이트에 있는, 책의 마지막에도 나오는 '아실로마 AI원칙'입니다.
FLI에서 수많은 사람들이 내놓은 아이디어 중 90% 이상의 동의를 얻은 항목만 넣었다고 합니다.
연구 이슈
1) 연구목표 : 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발하는 것이다.
2) 연구비 지원 : 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다:
- 어떻게 미래의 인공지능 시스템을 강력하게 만들어 오작동이나 해킹 피해 없이 우리가 원하는 대로 작업을 수행하도록 할 수 있나?
- 사람들의 자원과 목적을 유지하면서 자동화를 통해 우리 번영을 어떻게 성장시킬 수 있나?
- 인공지능과 보조를 맞추고 인공지능과 관련된 위험을 통제하기 위해, 보다 공정하고 효율적으로 법률 시스템을 개선할 수 있는 방법은 무엇인가?
- 인공지능은 어떤 가치를 갖추어야 하며, 어떤 법적 또는 윤리적인 자세를 가져야 하는가?
3) 과학정책 연결 : 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.
4) 연구문화 : 인공지능 연구자와 개발자 간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.
5) 경쟁 피하기 : 인공지능 시스템 개발팀들은 안전기준에 대비해 부실한 개발을 피하고자 적극적으로 협력해야 한다.
윤리 및 가치
6) 안전 : 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용 가능하고 실현 가능할 경우 그 안전을 검증할 수 있어야 한다.
7) 장애 투명성 : 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
8) 사법적 투명성 : 사법제도 결정에 있어 자율시스템이 사용된다면, 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공할 수 있어야 한다.
9) 책임 : 고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며, 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.
10) 가치관 정렬 : 고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계되어야 한다.
11) 인간의 가치 : 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용되어야 한다.
12) 개인정보 보호 : 인공지능 시스템의 데이터를 분석 및 활용능력의 전제하에, 사람들은 그 자신들이 생산한 데이터를 액세스, 관리 및 통제할 수 있는 권리를 가져야 한다.
13) 자유와 개인정보 : 개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안된다.
14) 공동이익 : 인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어주어야 한다.
15) 공동번영 : AI에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유되어야 한다.
16) 인간의 통제력 : 인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
17) 비파괴 : 고도화된 인공지능 시스템의 통제로 주어진 능력은 건강한 사회가 지향하는 사회적 및 시정 과정을 뒤엎는 것이 아니라 그 과정을 존중하고 개선해야 한다.
18) 인공지능 무기 경쟁 : 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
장기 이슈
19) 인공지능 능력에관한 주의 : 합의가 없으므로 향후 인공지능 능력의 상한치에 관한 굳은 전제는 피해야 한다.
20) 중요성 : 고급 AI는 지구 생명의 역사에 심각한 변화를 가져올 수 있으므로, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.
21) 위험 : 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험에는, 예상된 영향에 맞는 계획 및 완화 노력이 뒷받침되어야 한다.
22) 재귀적 자기 개선 : 인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면, 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
23) 공동의 선 : 초지능은 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.
'개발 및 공부' 카테고리의 다른 글
'모던 C++로 배우는 동시성 프로그래밍' 책 리뷰 (0) | 2018.11.05 |
---|---|
'프로그래머가 몰랐던 멀티코어 CPU 이야기' 책 리뷰 (0) | 2018.09.24 |
'밑바닥부터 시작하는 딥러닝' 책 리뷰! (0) | 2018.07.26 |
VRChat Stalker 개발한다고 새로 배운 것들 (0) | 2018.07.07 |
[리뷰] '처음 배우는 인공지능' 책 다 읽었습니다! (0) | 2018.06.28 |
Comments