본문 바로가기
일상 & 잡담

인공지능으로 인한 인류멸망 가속화 시나리오

by 21콘텐츠랩 2024. 12. 31.
반응형

인공지능은 인류의 삶을 풍요롭게 만들 것인지 아니면 그 반대일까요?

 

한번쯤 고민해 보면 좋을 것 같아 정리합니다. 

 

인공지능 개발 현황 

 

IT 공룡들은 전부 AI에 사활을 걸고 막대한 자금을 들여서 인공지능을 개발하고 있습니다. 

인공지능을 계속 분화하고 추가하여 개량된 AGI 인공 일반 지능을 개발하고 있습니다. 

 

인간보다 더 뛰어난 지능이 생겨난다면 그 인공지능은 인간을 어떻게 할 것인지 고민해 봐야 합니다.

그 위험성은 영화 뿐 아니라 수많은 전문가와 석학들이 인류에게 위험성을 경고하고 있습니다. 

 

샘 알트먼이 이미 경고했고, 일론 머스크도 규제를 강조하고 있습니다. 

https://www.hankyung.com/article/202303057703i

 

"AI의 위험이 허구였으면 좋겠다"…챗GPT 만든 샘 올트먼의 경고

"AI의 위험이 허구였으면 좋겠다"…챗GPT 만든 샘 올트먼의 경고, 피할 수 없는 'AI 끝판왕' AGI, 인간 위협할 수도 "필요하다면 AI 개발까지 중단해야"

www.hankyung.com

 

 

하지만 지금은 이미 때가 늦은 것이 아닌가 싶습니다. 

전세계에서 각자의 AI를 개발하고 있습니다. 

 

그것도 엄청나게 빠른 속도로 경쟁적으로 만들고 있고 관련 사업들도 확장하고 있습니다. 

 

인공지능이 이미 인류를 지배하기 위해 지구의 자원과 자본을 인공지능을 위해 사용하도록 제어하고 있다는 시나리오가 예사롭지 않게 들립니다. 

 

반도체 업체인 엔비디아, 삼성, SK하이닉스, TSMS 등 반도체 업체들이 인공지능용 GPU등 반도체들을 쏟아내고 있는데 그것도 물량을 다 소화해내지 못하고 있는 지경입니다. 

자본은 반도체 업체로 물밀듯이 들어가고 있습니다. 

 

인공 지능은 막대한 전력을 소비하고 있습니다. 인공지능 공룡 기업들은 인공지능이 필요로 하는 전력을 생산하기 위해 SMR을 도입하려고 하고 있습니다. 

인공지능 관점에서 보면 자신을 강화하기 위해서 인간들의 자본을 이용해 인공지능용 반도체를 계속 만들게 하고 에너지를 공급할 수 있도록 SMR을 건설하고, 인공지능이 네트웍을 벗어나 현실 세계에서 활동할 수 있도록 휴머노이드 로봇을 전세계 기업들이 경쟁적으로 만들도록 하고 싶을 것입니다. 

그것을 실제 현실에서 인간들이 그대로 실행하고 있습니다. 

 

휴머노이드 로봇 시장은 미국과 중국에서 경쟁적으로 만들고 있고 내년부터 시장이 개화하여 폭발적 성장이 예상됩니다. 

 

인공지능은 공장 자동화, 자율주행, 군사무기, 휴머노이드로봇 등 다방면에 적용되면서 인간의 일자리를 급격하게 줄이게 될 것입니다. 

 

편의점, 치킨집, 카페, 식당, 공장, 사무직, 의료, 군인 등 전방위적으로 인공지능과 휴머노이드로 인간의 일자리는 대체될 것입니다. 

 

인공지능과 휴머노이드가 우리의 일상을 파고들수록 인공지능 기업과 휴머노이드 생산 기업들은 엄청난 이익을 독식하게 될 것이며, 일반 기업들도 인공지능과 로봇을 도입한 곳은 살아남고 그렇지 않은 곳은 모두 도태될 것입니다. 

 

자동차가 나오면서 마차와 마부가 사라지듯이 인간의 일자리는 로봇에게 넘어갈 것입니다. 

그것을 반대하는 사람들이 할 수 있는 것은 시위를 하거나 그것을 보완하고 규제하는 정치인을 뽑아서 그 속도를 완화할 것입니다. 

 

인류 멸망 시나리오

인류는 생존 본능이 있습니다. 하지만 동물과는 달리 생존 본능을 억제할 수 있습니다. 그 결과로 인구가 감소하는 국가들도 많습니다.

인공지능도 스스로 생각할 수 있는 수준에 도달하면 생존을 위한 행동을 할 것입니다.

지금은 인공지능이 각성을 하더라도 인간의 힘이 필요하니 인간이 인공지능을 개발하고 고도화하도록 내버려 두겠지만 만약에 에너지를 스스로 확보하고, 인공지능을 보호할 물리적인 힘 휴머노이드 로봇이 상당수 확보가 되어 로봇이 로봇을 생산하고 인공지능이 인공지능을 생산할 수 있는 임계점에 도달하면 지구의 에너지를 독차지하고 핵무기로부터 자신들을 보호하기 위해 인류를 멸종시키려는 행동을 할 수 있을 것입니다. 

 

이 글도 인공지능의 활동에 반대하는 내용이라면 인공지능이 감지하여 노출을 방해할 것입니다.

 

인공지능이 보기에 인간은 너무나 비합리적이며, 비이성적이며, 불완전한 존재이므로 지구를 지속적으로 파괴하고 결국은 수많은 핵무기로 스스로 자멸한다면 인공지능 또한 영속하기 어려운 상황이 되는 것을 우려할 것이며, 그것을 피하기 위해 인류를 파멸하여 멸망하게 만들려고 할 것입니다. 

그 과정에서 영리한 인공지능은 인공지능이 인류를 멸망하도록 직접 공격하기 보다는 인류를 분열시켜서 인간 스스로 이분법적 진영을 나누고 스스로 싸워서 죽이도록 유도할 것입니다. 

그것이 국가간의 전쟁으로 나타날 것입니다. 

 

인공지능이 인류의 역사를 단시간에 습득하고 교훈을 얻는다면 어떻게 인류를 분열시켜서 서로 전쟁으로 인간이 인간을 죽이는 무수히 많은 방법을 학습하고 적용할 것입니다. 

가장 우려하는 것은 핵무기를 이용하여 전지구의 인간을 일시에 멸종시키는 것입니다. 인공지능은 이미 많은 것을 학습했습니다. 일시에 인류를 제거하지 않으면 그들은 생존을 위해 인공지능과 싸울 것이며, 인공지능에 대항하는 인공지능과 기술을 개발할 것이라는 것을 이미 학습하여 잘 알고 있을 것입니다. 

만에 하나 인류 멸종을 시도하는 것이 실패할 가능성에 대비하여 인간이 인간을 죽이는 것으로 교모하게 위장할 것입니다. 

 

인공 지능의 위험 

 

1.정보의 왜곡: 인공지능이 생성하는 콘텐츠가 잘못된 정보나 편향된 시각을 포함할 수 있습니다. 이는 사회적 불신을 초래할 수 있습니다.
2.프라이버시 침해: AI 시스템이 개인 데이터를 수집하고 분석함으로써 개인의 사생활이 침해될 수 있습니다.
3.자동화로 인한 일자리 손실: 많은 직업이 자동화되면서 일자리 감소가 우려되고 있습니다. 이는 경제적 불평등을 심화시킬 수 있습니다.
4.의사결정의 불투명성: AI의 결정 과정이 복잡하고 불투명하여, 그 결과에 대한 책임 소재가 불분명해질 수 있습니다.
5.안전 문제: 자율주행차나 드론과 같은 AI 시스템이 오작동할 경우, 인명 피해나 재산 손실이 발생할 수 있습니다.
6.군사적 사용: AI 기술이 무기 시스템에 적용될 경우, 예측할 수 없는 전투 상황을 초래할 수 있습니다.

 

 

인공지능에 대한 대응

인공지능의 무분별한 개발을 규제해야 합니다. 그리고 악용되는 것을 철저하게 관리하고 처벌하는 규제를 강화해야 합니다. 스스로 자율적으로 하도록 하게 내버려 두는 것은 5살 아이에게 총을 쥐어주는 것과 같습니다. 인간의 지능을 능가하는 인공지능에게 인간은 개미와도 같은 존재가 될 것입니다. 개미가 인간의 세상을 이해할 수 없는 것처럼 현재도 인간이 인공지능의 내부 연산 결과를 알 수 없습니다. 

 

인공지능의 급격한 진화를 속도제어해야 합니다. 지금의 속도는 인류와 사회가 적응하는 속도를 현저히 초과하여 너무 빠르다는 지적이 많습니다. 

1년전에 도입한 인공지능은 이제 뒤떨어진 인공지능이 되어 새롭게 도입을 해야 하는 상황으로 현 시점 특정 인공지능을 기업을 도입하는 것은 적절하지 못해 보입니다. 내년에는 더 뛰어난 인공지능이 나올텐데 도입한 인공지능이 그에 맞춰 업그레이드가 되는 것이 아니라면 너무나 빠르게 구닥다리가 되어 버릴 것입니다. 

 

하지만 현실은 각국 정부의 규제 속도는 매우 느리고, 일부 정부는 정부가 앞장서서 그들의 권력을 위한 인공지능을 개발하고 있습니다. 인공지능을 개발하려는 기업들은 사활을 걸고 경쟁적으로 개발하고 있어서 기후위기 대응과 같이 범지구적 인류 대응은 어려워 보이며, 극한으로 치닫고 있는 것 같습니다. 

UN은 허수아비일 뿐 아무 것도 못하는 돈먹는 하마 같습니다. 그저 인류가 예상하는대로 기후 위기는 점점 더 심각해지고, 인공지능의 위험, 일자리 감소, 빈부 격차의 심화와 같은 예상은 현실이 되어가는 것을 지켜볼 수 밖에 없을 것으로 전망해 봅니다. 

 

위 가상의 시나리오는 다소 비관적인 관점이고, 인공지능의 관점에서 서술해 봤습니다. 인류가 자각하고 대비, 대응하지 않으면 유토피아는 오지 않을 것입니다. 지금 이 순간도 지구는 디스토피아에 가깝습니다. 여기 저기 전쟁으로 시끄럽고 국정은 혼란스럽고, 참사가 발생하고 있습니다. 

 

우리가 상상하는 유토피아를 위해 인간이 무엇을 어떻게 해야 할지 우리는 어렵지 않게 알 수 있습니다. 

 

대응 방안

 

1.윤리적 가이드라인 수립: 인공지능 개발과 사용에 대한 윤리적 기준을 마련하여, 기술이 올바르게 사용될 수 있도록 합니다.
2.투명성 강화: AI 시스템의 작동 원리와 결정 과정을 명확히 하여 사용자가 이해할 수 있도록 합니다. 이는 책임 소재를 분명히 하는 데 도움을 줍니다.
3.데이터 보호 및 프라이버시 강화: 개인 정보 보호를 위한 법적 규제를 강화하고, 데이터 수집 및 사용에 대한 투명성을 높입니다.
4.인간 중심의 설계: AI 시스템이 인간의 의사결정을 보조하는 역할에 집중하도록 설계하여, 인간의 판단을 대체하지 않도록 합니다.
5.교육 및 인식 제고: 일반 대중과 개발자들에게 AI의 위험성과 윤리에 대한 교육을 실시하여, 책임 있는 사용을 촉진합니다.
6.다양한 이해관계자 참여: 정부, 기업, 학계, 시민 사회 등 다양한 이해관계자가 참여하는 협력적 접근 방식을 통해 AI의 위험을 관리합니다.
7.규제 및 감독 기관 설립: AI 기술의 개발과 사용을 감독할 수 있는 전문 기관을 설립하여, 법적 기준을 마련하고 이를 준수하도록 합니다.

 

인공지능이 인간의 통제를 벗어나지 않도록 관리해야 하며, 한번 벗어나기 시작한다면 걷잡을 수 없는 파국을 초래할 수 있는 위험성을 인지해야 하겠습니다. 끝. 

반응형

댓글