티스토리 뷰

인공 지능에 대해 이야기해 봅시다

아십 샤이는 기술과 사회의 교차로에서 시민 중심의 '윤리 인공지능 위한 포럼'라는 인공지능의 심의 민주주의의 실험을 반영합니다. 그것은 우리 시대의 가장 큰 문제 중 하나입니다. 인공 지능이 우리의 삶에서 어떤 역할을합니까? 점점이 페이스북의 친구 소개 기능이 너무 무서워하거나 포켓몬고 이웃의 뒷마당에서 침입했는지 여부에 대한 질문이 없습니다. 그보다는 몇 가지 윤리적, 도덕적 차원의 문제입니다. 2019 년 5 월 14 일 샌프란시스코에서 법 집행의 얼굴 인식 기술의 사용을 금지 한 미국의 주요 도시가되었습니다. 2 개월 후, 오클랜드는 유사한 제한을 실시했습니다. 한편 중국에서는 얼굴을 스캔하여 인식하고 있지 않아도 최근의 휴대 전화를받는 것은 어렵습니다. 인공 지능 자동 결정 시스템 등은 더 이상 기술 애호가에게만 해당되는 항목은 없습니다. 공유 민주주의 대화에 필수적인 부제목입니다. 우리가 원하는 사회 종류의 메모. 이것은 2018 년 인공지능이 비교적 새로운 실험을 시작한 이유입니다. 우리는 정확하게 이러한 대화에 시민의 전문가를 참여 시켰습니다. 우리는 평범하고, 기술적으로 문제가없는 사람을 모으고, 우리 시대의 가장 복잡한 윤리적 인 질문에 대답했습니다. 의료와 정의 등의 중요한 점에서 오늘까지 기술자가 생산 한 가장 다루기 힘든 비전 시스템에 대한 것입니다. 우리는 인공지능 의 윤리 인공지능포럼을 통해이를 실행 지금의 작업에서 최종 보고서를 읽을 수 있습니다. 또한 우리의 실험에 관한 비디오를 만들었습니다 : 대 대화 우리는 자동화 된 의사 결정 시스템이 공공 영역에서 사용되는 경우, 특히 우리의 민주적 합의와 세금에 대한 존재하는 기관에서 나타나는 표시되는 딜레마를 이해하고 싶었다. 우리는 통찰력을 얻고 신뢰 구축의 장벽을 더 잘 이해하기를 희망했습니다. 또한 이러한 방식을 사용하여 향후 어느 시점에서 이러한 기술의 새로운 거버넌스 및 감독 모델로 전환하는 것을 확인하고 싶었다. 따라서 우리는 시민 배심원을 소집했습니다. 우리의 시민 배심원은 AI 회사 딥마인드와 제휴하여 만들어진, 외부 적으로 추진되었다. 이 이벤트는 3 일 반 동안 몇 개월에 걸쳐 이루어 25,29 명의 다양한 대표 그룹의 시민이 참가했습니다. 주요 전문가와 함께 일련의 질문에 대해 심의 한 후, 공공 장소에서 인공지능 설계 및 배치에 관한 일련의 권장 사항을 결정하고 다른 많은 부분에 반영되었습니다. 촉진 된 대화 성찰 포럼 및 전문가의 프롬프트는이 프로세스의 중요한 않았습니다. 우리는 또한 인공지능 국가의 견해를 넓히기 위해 조사를하기 위해 인공지능 와 협력했습니다. 통계는 약간의 독창적 인 독서를합니다. 개인의 32 %만이 인공지능가 일반적으로 의사 결정에 사용되는 것을 알고있었습니다 직장에서 체험 프로그램을 사용 형사 사법 시스템에 대한 인식은 각각 14 %와 9 %로 감소 60 %는 채용 및 형사 사법의 체험 프로그램 사용하는 것에 반대합니다. 측량 수치는 유 거버넌트에서 볼 수 있습니다. 총 표본 크기는 성인 2,074 명입니다. 현장 조사는 2018 년 4 월 16 일부터 17 일 사이에 이루어졌다. 설문 조사는 온라인으로 진행되며 수치는 가중치를 부여하고 있으며, 모든 영국 성인을 대표 (18 세 이상) 도구 키트 등장 시민 배심원을 통해 우리는 ADS 사용의 장점 과 단점에 대한 놀라운 정보가 담긴 토론을 중재 할 수있었습니다. 배심원은체험 프로그램를 사용하기위한 일련의 조건을 생각 했었고, 특히 제도의 맥락에서인공지능 윤리적 인 디자인과 배치를 생각할 때, 이것은 어떻게 유용한 지 크게 놀랐습니다 했다. 우리는 제품을 만들려면 의도 로이 프로세스를 시작하지 않았지만, 배심원의 의견이 어떻게 맥락에서 윤리적 인 디자인 프로세스가 보이는지 툴킷의 기초를 형성하는 방법 같이 모여도 놀랐습니다. 테크 러시를 피하기? 다양한 심의에서 크게 나타난 것은 시민뿐만 아니라, 기술, 기업 및 공공 기관의 스테이크보다 높을 수 없다는 것이었다. 대화를 통해 반복 등장한 주요 테마 중 하나는 이러한 기술의 사용을위한 「반동」또는 「테크 러쉬 '의 위험이 있고, 어떤 장점도 포기했습니다. 이 감정이 가장 명확하게 밝혀진 것은 공공 부문에 대한 논의였다. 형법은 특히 정지 검색 결정에서 배심원은 ADS를 사용하여 내려진 결정의 책임 시스템을 필요로했습니다. 동영상에서 시연 한 것처럼, 그들은 "인간 인간 '이 필요하다고 느꼈습니다. 체험 프로그램의 결정은 일정 수준의 인간의 감독 열리는 있습니다. 예를 들어, 경찰 당국의 얼굴 인식 기술을 사용하여 발생할 수있는 잠재적 인 편견, 특히 인종 편견에 대해 많은 우려가있었습니다. 건강 관리 결정에있어서 중요한 문제는 공감했다. 시민 배심원은 체험 프로그램가 환자를 취급하는 감정의 깊이가 부족하다고 생각했습니다. 그러나 경찰과 흥미로운 대조 체험 프로그램을 채용하여 보다 나은 의사 결정을 할 수 있다고 믿는 의사와 의사 결정자에게 더 동정이있었습니다. 채용 체험 프로그램을 사용하기 위해 배심원은 고용 과정에서 투명성이 부족 할 수 있다고 우려하고있다. 편견의 가능성이 큰 관심사였습니다. 일부는 고용주에 대한 지침을 마련하고이를 실시하기 위해, 외부 감사 기관이 필요하다고 느꼈습니다. 이것은 우리의 심의 과정에서 나타나는 몇 가지 흥미로운 권장 사항 중 하나입니다. 심의의 심의, 우리가 시민 배심원에서 얻은 통찰력은 풍부하고 우리가 시민 참여와 기술의 교차로에서 초기에 급속하게 발전하고 지역의 하나라고 생각하는 것은 흥미로운 에이다 버브레이스 협회와 왕립 학회, 예를 들어, 포럼의 자문위원회에 앉아 사이먼 버랠 것과 같이이 분야에서 훌륭한 일을하고있는 사람. 우리의 연구 결과에 따르면, 우리는이 방법과 같은 다른 방법이 다양한 제도적 맥락에서 복잡한 문제를 해결할 수있는 흥미로운 가능성을 가지고 있다고 생각합니다. 이 분야에서 일하는 우리와 다른 사람의 질문은 빠르게 진화하는 급진적 인 기술을위한 다양한 집단의 대화를 만들어 더 넓은 지식을 얻기 위해 어떻게 통찰력을 모으는 내 우리는 시스템 주변의 대화를 바꾸고 시스템 자체를 바꾸기 위해 어떻게 협력하고 있습니까? 이 보고서에 포함 된 인공지능 의 반영과 툴킷은 다른 사람이 앞으로 수있는 유용한 통찰력을 제공 하면서도 이 영역에서 작업을 계속할 것입니다. 미래의 새로운 기술이 빠르게 채택되고 있으며, 규제 기관과 대중은 계속 노력하고 있습니다. 공공 서비스 고용 시장 및 헬스 케어 분야에서 불투명 한 과정을 통해 더 많은 의사 결정이 이루어지고 있습니다. 기계 학습은 현장을 복잡하게합니다. 에이디에스는 게임을 변경합니다. 우리의 연구에서 알 수 있듯이, 이것은 일반 대중의 불안의 원천이며, 그 절반도 모릅니다. 투명성과 책임의 원칙에 따라 인공지능 및 다른 형태의 의사 결정을위한 열린 대화가 필요합니다. 시민은 그런 대화를 중재 소집되는 공공 서비스의 인공지능 를 사용하는 것이 윤리적으로 미치는 영향을 이해합니다. 그들의 목소리는 대화의 일부가 필요합니다. 우리는 윤리적 인공지능 포럼이 시민 배심원 및 기타 심의 수단을 통해 이러한 상호 작용을 촉진하는 데 중요한 역할을 할 수 있기를 바랍니다. 방법을 테스트하거나 특정 주제 영역에 참여한다. 우리는 건강 관리 시스템에서 인공지능의 조달에 대해 엔에이치엑스와 협력하여 이미 작업을 진행하고 있습니다. 이 프로젝트에 대한 자세한 내용은이 공간을보십시오. 이 권리를 얻는 상 기술이 가져 오는 긍정적 인 견해를 수용 함과 동시에 미래에 미치는 영향에 대해 풍부하고 의미있는 대화를 할 수있는 미래입니다. 그리고 위험에 포켓몬 레벨이나 페이스북을 좋아하는 것이 아니라, 우리의 선택의 자유, 정체성, 사회의 집단적 자기 느낌입니다..

댓글