티스토리 뷰

인공 지능의 이점 및 위험

문명에 대해 우리가 좋아하는 모든 것은 지능의 산물이므로 인공 지능으로 인간의 지능을 증폭 시키면 기술을 유익하게 유지하는 한 결코 전례없이 문명이 번성 할 수 있습니다. 박스 팀버맨 , 생명 연구소 미래의 회장 이 페이지를 다른 언어로 보려면 여기를 클릭하십시오 : 중국어 프랑스 국민 독일 사람 일본어 한국어 러시아인 인공지능란? 시리에서 자율 주행 자동차에 이르기까지 인공 지능이 빠르게 발전하고 있습니다. 공상 과학은 종종 인공지능을 인간과 같은 특성을 가진 로봇으로 묘사하지만인공지능은 구글 검색 알고리즘에서 아이비엠의 자율 무기에 이르기까지 모든 것을 포함 할 수 있습니다. 오늘날 인공 지능은 좁은 인공지능(또는 약한 인공지능) 로 잘 알려져 있습니다. 좁은 인공 지능 (예 : 얼굴 인식 또는 인터넷 검색 또는 자동차 운전) 만 수행하도록 설계되었습니다. 그러나 많은 연구자들의 장기 목표는 일반 인공지능 또는 강력한 인공지능을 만드는 것 입니다. 좁은 인공지능는 체스 나 방정식 풀기와 같이 특정 작업이 무엇이든 인간보다 성능이 뛰어나지 만 AGI는 거의 모든인지 작업에서 인간보다 성능이 뛰어납니다. AI 안전을 연구해야하는 이유 단기적으로 인공지능가 사회에 유익한 영향을 미치게한다는 목표는 경제 및 법률에서 검증, 타당성, 보안 및 통제와 같은 기술 주제에 이르기까지 많은 분야에서 연구에 동기를 부여합니다. 랩톱이 충돌하거나 해킹 당하면 사소한 방해가 될 수 있지만 인공지능 시스템이 자동차, 비행기, 맥박 조정기, 자동 거래를 제어하는 ​​경우 원하는대로 행동하는 것이 더욱 중요합니다. 시스템 또는 전력망. 또 다른 단기적인 도전은 치명적인 자치 무기에서 치명적인 무기 경쟁을 막는 것입니다 . 장기적으로, 중요한 질문은 강력한 인공지능에 대한 탐구가 성공하고 인공지능가 모든인지 과제에서 인간보다 나아질 경우 어떻게 될 것인가입니다. 1965 년 아이제이 굿이 지적한 것처럼 똑똑한 인공지능 시스템 설계는 그 자체로인지적인 작업입니다. 그러한 시스템은 재귀적인 자기 개선을 겪을 수 있으며, 지능이 폭발하여 인간의 지능이 훨씬 뒤 떨어지게 할 수 있습니다. 혁신적인 신기술을 발명함으로써 그러한 초 지능 은 우리가 전쟁, 질병 및 빈곤을 근절하는 데 도움 이 될 수 있으므로 강력한 인공지능를 만드는 것이 인류 역사상 가장 큰 사건이 될 수 있습니다. 그러나 일부 전문가들은 인공 지능이 인공지능가 목표를 달성하기 전에 인공 지능의 목표를 맞추는 법을 배우지 않는 한 그것이 마지막일지도 모른다는 우려를 표명했습니다. 강력한 인공지능가 달성 될지에 대해 의문을 제기하는 사람들이 있으며, 초 지능형 인공지능의 생성이 유익하다고 보장하는 사람들도 있습니다. 에프에서는 이러한 두 가지 가능성을 모두 인식하지만 의도적으로 또는 실수로 인공 지능 시스템이 큰 피해를 입힐 수있는 가능성을 인식합니다. 우리는 오늘의 연구가 미래에 그러한 잠재적 부정적 결과를 더 잘 준비하고 예방할 수 있도록 도와줌으로써 함정을 피하면서 인공지능의 이점을 누릴 수 있다고 믿습니다. 인공지능는 어떻게 위험 할 수 있습니까? 대부분의 연구자들은 초 지능형 인공지능가 사랑이나 증오와 같은 인간의 감정을 나타내지 않을 것이며 인공지능가 의도적으로 자비 롭거나 악의가 될 것이라고 기대할 이유가 없다는 데 동의합니다. 대신 인공지능가 어떻게 위험에 처할 수 있는지를 고려할 때 전문가들은 두 가지 시나리오를 가장 잘 생각합니다. 인공지능는 파괴적인 일을하도록 프로그램 되었습니다. 자율 무기는 죽 이도록 프로그래밍 된 인공 지능 시스템입니다. 잘못된 사람의 손 에이 무기는 쉽게 대량 사상자를 초래할 수 있습니다. 더욱이 AI 무기 경쟁은 실수로 인공지능 전쟁을 일으켜 대량 사상자를 초래할 수 있습니다. 이 무기들은 적의 공격을 피하기 위해 단순히 "끄기"가 매우 어려워서 그러한 상황에 대한 통제력을 상실 할 수 있습니다. 이 위험은 인공지능가 좁더라도 발생하지만 AI 지능과 자율성이 높아짐에 따라 증가합니다. AI는 유익한 일을하도록 프로그램되었지만 목표를 달성하기위한 파괴적인 방법을 개발합니다. 이는 AI의 목표를 우리의 목표와 완전히 일치시키지 못하면 발생할 수 있습니다. 순종적인 지능형 차량에 가능한 빨리 공항으로 데려다달라고 요청하면 헬리콥터가 쫓아서 구토로 덮여 원하는 것을하지 않고 문자 그대로 요청한 것을 수행 할 수 있습니다. 야심 찬 지리 공학 프로젝트로 초 지능 시스템이 임무를 수행하는 경우, 생태계로 인해 부작용이 생길 수 있으며 인간이 시도를 멈추려는 위협으로 보지 못할 수도 있습니다. 이러한 예에서 알 수 있듯이 고급 인공지능에 대한 우려는 악의적 인 것이 아니라 역량입니다. 초 지능형 인공지능는 목표 달성에 매우 능숙 할 것이며, 그러한 목표가 우리 목표와 맞지 않으면 문제가 있습니다. 아마도 악의에서 개미를 밟는 사악한 개미 싫어하는 사람은 아니지만 수력 녹색 에너지 프로젝트를 담당하고 개미집에 범람 할 개미 언덕이 있다면 개미에게 너무 나쁘다. 인공지능 안전 연구의 주요 목표는 인류를 그 개미의 위치에 두지 않는 것입니다. 인공지능 안전에 대한 최근 관심사 스티븐 호킹 엘럼 머스키 및 과학 및 기술 분야의 다른 많은 유명인들은 최근 언론 과 인공지능에 의한 위험에 관한 공개 서한을 통해 많은 주요 인공지능 연구자들 과 함께 우려 를 표명 했습니다. 왜 제목이 갑자기 제목에 표시됩니까? 강력한 인공지능를 추구하는 것이 궁극적으로 성공할 것이라는 아이디어는 오랫동안 공상 과학, 수세기 또는 그 이상으로 생각되었습니다. 그러나 최근의 돌파구 덕분에 전문가들이 불과 5 년 전만해도 수십 년 전으로 여겨지는 많은 인공지능 이정표에 도달하여 많은 전문가들이 우리의 인생에서 초 지능의 가능성을 심각하게 받아들입니다. 일부 전문가들은 여전히 ​​인간 수준의 인공지능가 수세기 떨어져 있다고 생각하지만 2015 년 푸에르토 리코 회의 에서 대부분의 AI 연구는 2060 년 이전에 일어날 것이라고 추측했습니다. 필요한 안전 연구를 완료하는 데 수십 년이 걸릴 수 있으므로 지금 시작하는 것이 현명합니다. . 인공지능는 인간보다 지능적으로 발전 할 가능성이 있기 때문에 어떻게 행동 할 것인지 예측할 수있는 확실한 방법이 없습니다. 과거의 기술 개발을 기본적으로 사용할 수는 없습니다. 우리가 직면 할 수있는 가장 좋은 예는 우리 자신의 진화 일 수 있습니다. 사람들은 이제 우리가 가장 강하고 빠르거나 가장 큰 것이 아니라 가장 똑똑하기 때문에 지구를 통제합니다. 우리가 더 이상 똑똑하지 않다면 우리는 통제력을 유지해야합니까? 인공지능의 입장은 기술의 발전과 기술의 지혜 사이에서 경쟁에서 이기면 문명이 번성 할 것입니다. 인공지능 기술의 경우 인공지능의 입장은 경쟁에서이기는 가장 좋은 방법은 AI 안전 연구를 지원함으로써 전자를 방해하지 않고 후자를 가속화하는 것입니다. 고급 인공지능에 대한 신화 인공 지능의 미래와 그것이 인류에게 어떤 의미가 있는지에 대해 매혹적인 대화가 이루어지고 있습니다. 다음과 같은 세계 최고의 전문가들이 동의하지 않는 매혹적인 논쟁이 있습니다 : 인공지능가 고용 시장에 미치는 미래; 인간 수준의 인공지능가 개발 될 때 언제 이것이 지능 폭발로 이어질지 여부; 그리고 이것이 우리가 환영하거나 두려워해야하는 것인지의 여부. 그러나 사람들이 서로를 오해하고 이야기함으로써 야기되는 지루한 의사 논쟁의 사례도 많이 있습니다. 오해가 아닌 흥미로운 논란과 열린 ​​질문에 집중할 수 있도록 가장 일반적인 신화를 정리해 보겠습니다. 인공지능신화 타임 라인 신화 첫 번째 신화는 타임 라인에 관한 것입니다 : 기계가 인간 수준의 지능을 크게 대체 할 때까지 얼마나 걸립니까? 일반적인 오해는 우리가 그 대답을 확실하게 알고 있다는 것입니다. 인기있는 신화 중 하나는 우리가 금세기 초 인간적인 인공 지능을 얻게된다는 것입니다. 사실, 역사는 기술적으로 과장된 것으로 가득합니다. 우리가 약속 한 핵융합 발전소와 비행 차는 어디에 있습니까? 인공지능는 또한 해당 분야의 일부 창립자들에 의해 과거에도 반복적으로 과대 광고되었습니다. 예를 들어, 존 맥카시, 마빈 민스키, 나다니엘 로체스터와 클로드 섀넌 돌 시대의 컴퓨터 두 달 동안에 수행 할 수 있는지에 대한이 지나치게 낙관적 인 예측을 썼다 : "우리는 제안 2 개월이 , 1956 년 여름 다트머스 대학에서 인공 지능에 대한 10 인의 연구가 수행되었다. 기계가 언어를 사용하고, 추상화와 개념을 형성하고, 현재 인간을 위해 예약 된 문제를 해결하고, 스스로를 향상시키는 방법을 찾으려고 노력할 것입니다. 우리는 엄선 된 과학자 그룹이 여름 동안 함께 연구한다면 이러한 문제들 중 하나 이상에서 상당한 발전을 이룰 수 있다고 생각합니다.” 반면에 인기있는 반 신화는 우리가 금세기 초 인간 인공지능를 얻지 못할 것이라는 것을 우리는 알고 있습니다. 연구자들은 우리가 초 인간 인공지능로부터 얼마나 멀리 떨어져 있는지에 대한 광범위한 추정을 해왔지만, 그러한 기술 회의론적 예측에 대한 암울한 기록을 감안할 때 우리는 이번 세기의 확률이 0이라고 확신 할 수는 없습니다. 예를 들어, 당시 가장 위대한 핵 물리학자인 어니스트 러더 포드는 1933 년에 스틸자드의 핵 연쇄 반응 발명 24 시간 이내에 핵 에너지가“달빛”이라고 말했다. 그리고 천문학 자 로열 리차드 울리는 1956 년에 행성 간 여행을“터빌 빌지”라고 불렀습니다.이 신화의 가장 극단적인 형태는 초 인간 인공 지능이 물리적으로 불가능하기 때문에 결코 도착하지 않는다는 것입니다. 하나, AI 연구원들에게 몇 년 후 최소 50 %의 확률로 인간 수준의 AI를 갖게 될 것이라고 생각하는 많은 조사가있었습니다. 이 모든 설문 조사는 동일한 결론을 내렸습니다. 세계 최고의 전문가들이 동의하지 않기 때문에 우리는 알지 못합니다. 예를 들어 2015 년 푸에르토 리코 인공지능컨퍼런스 에서 실시 된 AI 연구원의 여론 조사에서 평균 (중앙) 답변은 2045 년 이었지만 일부 연구원들은 수백 년 이상을 추측했습니다. 인공지능에 대해 걱정하는 사람들은 인공지능가 불과 몇 년 거리에 있다고 생각하는 관련 신화도 있습니다. 사실, 초 인간 인공 지능에 대해 걱정하는 기록을 가진 대부분의 사람들은 여전히 ​​적어도 수십 년은 멀었다 고 생각합니다. 그러나 그들은 우리가 이번 세기에 일어나지 않을 것이라고 100 % 확신하지 않는 한, 안전 문제를 해결하기 위해 안전 연구를 시작하는 것이 현명하다고 주장합니다. 인간 수준의 인공지능와 관련된 많은 안전 문제는 너무 어려워서 해결하는 데 수십 년이 걸릴 수 있습니다. 따라서 레드불을 마시는 일부 프로그래머가 스위치를 켜기로 결정하기 전날 밤이 아니라 지금 연구를 시작하는 것이 현명합니다. 논쟁의 신화 또 다른 일반적인 오해는 인공지능에 대한 우려를 갖고 AI 안전 연구를 옹호하는 유일한 사람들은 인공지능에 대해 잘 모르는 신랄한 사람들이라는 것입니다. 표준 인공지능 교과서의 저자 인 스튜어트 러셀이 푸에르토 리코 이야기 에서 이것을 언급 했을 때 , 청중은 크게 웃었다. 인공지능 안전 연구 지원에 대한 논란은 논란의 여지가 있습니다. 실제로 AI 안전 연구에 대한 적당한 투자를 지원하기 위해 사람들은 가정 보험에 대한 적당한 투자가 가정의 무시할 수없는 확률에 의해 정당화되는 것처럼 위험이 높다는 것을 확신 할 필요가 없습니다. 불타다. 미디어가 인공지능 안전 토론을 실제보다 논란의 여지가있는 것으로 만들었을 수도 있습니다. 결국, 두려움은 팔리고 문맥에 맞지 않는 인용문을 사용하여 임박한 운명을 선포하는 기사는 뉘앙스가 있고 균형 잡힌 것보다 많은 클릭을 생성 할 수 있습니다. 결과적으로 미디어 인용문에서 서로의 입장에 대해서만 아는 두 사람은 실제 의견보다 동의하지 않을 가능성이 높습니다. 예를 들어, 영국 타블로이드에서 빌 게이츠의 입장에 대해서만 읽은 기술 회의론자는 게이츠가 초 지능이 임박했다고 생각한다고 잘못 생각할 수 있습니다. 마찬가지로, 화성에 대한 인구 과잉에 대한 그의 인용을 제외하고 앤드류 응의 입장에 대해 아무것도 모르는 유익한 AI 운동의 누군가는 인공 지능 안전성에 관심이 없다고 생각하지만 실제로는 그렇지 않습니다. 요점은 타임 라인 추정치가 더 길기 때문에 초 인간 인공지능I의 위험성에 관한 신화 많은 AI 연구자 들이이 헤드 라인을 보고 눈을 떴습니다 .“ 스티븐 호킹은 로봇의 부상이 인류에게 치명적일 수 있다고 경고합니다.” 그리고 많은 사람들이 비슷한 기사를 본 횟수를 잃어 버렸습니다. 일반적으로이 기사에는 무기를 들고있는 사악한 로봇이 동봉되어 있으며, 로봇이 의식과 악이되어 로봇이 일어나서 죽임을 걱정해야한다고 제안합니다. 간단히 말해, 그러한 기사는 인공지능 연구자 들이 걱정 하지 않는 시나리오를 간결하게 요약하기 때문에 실제로 인상적 입니다. 최대 3 개의 별도의 오해로 그 시나리오 콤바인 : 대한 우려 의식 , 악, 및 로봇 . 도로를 주행하면 색상, 사운드 등 의 주관적인 경험이 있습니다. 그러나 자율 주행 차는 주관적인 경험이 있습니까? 자율 주행 차라는 느낌이 들까 요? 이 의식의 신비는 그 자체로는 흥미롭지 만 인공지능 위험과는 관련이 없습니다. 운전자가없는 차에 부딪 히더라도 주관적으로 의식을 느끼는지 여부는 차이가 없습니다. 같은 방식으로, 무엇을 우리는 인공지능가 완전 똑똑한 것입니다 인간에 영향을 줄 않습니다 이 주관적으로 어떻게하지, 느낌 . 기계가 악을 돌리는 것에 대한 두려움은 또 다른 붉은 청어입니다. 진정한 걱정은 악의가 아니라 역량입니다. 초 지능형 인공지능은 정의에 따라 목표를 달성하는 데 매우 우수하므로 목표가 우리 목표와 일치하는지 확인해야합니다. 인간은 일반적으로 개미를 싫어하지 않지만 우리는 자신보다 더 똑똑합니다. 따라서 수력 발전 댐을 만들고 개미 언덕이 거기에 있다면 개미에게는 너무 나쁩니다. 유익한 인공지능 운동은 인류를 그 개미의 위치에 두지 않기를 원합니다. 의식 오해는 기계가 목표를 가질 수 없다는 신화와 관련이 있습니다. 기계는 분명히 목표 지향적 행동을 나타내는 좁은 의미의 목표를 가질 수 있습니다. 열 추적 미사일의 행동은 목표를 달성하기위한 목표로 가장 경제적으로 설명됩니다. 목표가 자신의 목표와 맞지 않는 기계에 의해 위협을 느끼는 경우, 기계가 의식적이고 목적 감각을 경험하는지 여부가 아니라이 좁은 의미의 목표가 정확하게 당신을 괴롭 힙니다. 만약 그 열 추적 미사일이 당신을 쫓고 있다면, 당신은 아마도 “기계가 목표를 가질 수 없기 때문에 걱정하지 않습니다!”라고 소리 치지 않을 것입니다 . 나는 일부 언론인들이 로봇에 강박 적으로 고정되어 있으며 눈에 띄는 금속 괴물로 붉은 눈을 가진 기사를 장식하기 때문에 로드니 북스 및 흉악한 타블로이드에 의해 불쾌하게 악마 같은 느낌을 가진 다른 로봇 공학 개척자들과 동정합니다. 실제로, 유익한 AI 운동의 주요 관심사는 로봇이 아니라 지능 자체입니다. 특히 목표가 우리의 목표와 맞지 않는 지능입니다. 우리에게 문제를 일으켜서, 잘못 정렬 된 초 인간 지능에는 로봇이 필요하지 않으며, 단지 인터넷 연결 만 필요합니다. 이는 금융 시장을 뛰어 넘고, 인간 연구자를 발명하고, 인간 지도자를 조작하고, 이해할 수없는 무기를 개발할 수 있습니다. 로봇 제작이 물리적으로 불가능하더라도 로봇 오해는 기계가 인간을 통제 할 수 없다는 신화와 관련이 있습니다. 지능은 통제를 가능하게합니다. 인간은 호랑이를 통제하는 것이 아니라 우리가 더 똑똑하기 때문에 호랑이를 통제합니다. 이것은 우리가 지구상에서 가장 똑똑한 입장을 취하지 않으면 통제를 중단 할 수도 있다는 것을 의미합니다. 흥미로운 논쟁 위에서 언급 한 오해에 시간을 낭비하지 않으면 전문가조차도 동의하지 않는 진실하고 흥미로운 논쟁에 집중할 수 있습니다. 어떤 미래를 원하십니까? 치명적인 자치 무기를 개발해야합니까? 작업 자동화로 어떤 일을 하시겠습니까? 오늘의 아이들에게 어떤 직업 조언을 하시겠습니까? 오래된 직업을 대체하는 새로운 직업이나 모든 사람이 여가 생활과 기계 생산 재산을 즐기는 실업자 사회를 선호합니까? 더 나아가서, 당신은 우리가 초 지능적인 삶을 만들고 우리의 우주를 통해 그것을 퍼 뜨리기를 원하십니까? 우리는 지능적인 기계를 통제 할 것인가, 아니면 우리를 통제 할 것인가? 지능형 기계가 우리를 대신하거나 공존할까요? 인공 지능 시대에 인간이라는 것은 무엇을 의미합니까? 무엇을 의미하겠습니까? 미래를 어떻게 그렇게 만들 수 있을까요?

댓글