<blockquote><p style="text-align:justify;"><strong>AI 4대 석학이 전망하는 AI의 미래</strong></p></blockquote><p style="text-align:justify;"> </p><p style="text-align:justify;">2024 노벨과학상은 새로운 이정표를 세웠습니다. 전통적으로 학계의 연구자들이 수상하던 노벨과학상에 AI 전문가들이 이름을 올린 것입니다. 딥러닝의 선구자 제프리 힌턴이 노벨 물리학상을, 알파고의 아버지라 불리는 데미스 허사비스가 노벨 화학상을 수상하며 과학계에 신선한 충격을 안겨주었습니다. 이는 단순한 수상 이상의 의미를 지닙니다. AI가 더 이상 단순한 혁신 기술이 아닌, 인류의 지식 발전에 기여하는 근본적인 도구가 되었음을 시사하기 때문입니다.</p><p style="text-align:justify;"> </p><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image3.png"><figcaption>2024 노벨 물리학상, 화학상 수상자 <출처: THE NOBEL PRIZE, 작가 편집></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">AI가 과학 발전의 핵심 도구로 자리 잡았음에도, 그 미래는 여전히 불확실성으로 가득합니다. 물리적으로 예측이 가능했던 과거의 기술들과 달리, AI는 그 내부 작동 방식을 완전히 이해하기 어렵기 때문입니다. 이러한 특성으로 인해 AI 분야의 최고 전문가들 사이에서도 미래에 대한 전망이 엇갈리고 있는데요. 오늘은 그중에서도 소위 ‘AI 4대 석학’이라 불리는 선구자들을 중심으로 AI의 미래를 조망해 보고자 합니다. </p><div class="page-break" style="page-break-after:always;"><span style="display:none;"> </span></div><h3 style="text-align:justify;"><strong>제프리 힌턴 “AI의 위험성에 대한 강력한 경고”</strong></h3><p style="text-align:justify;">가장 먼저 살펴볼 인물은 제프리 힌턴 교수입니다. ‘딥러닝의 대부’로 불리는 힌턴 교수는 현대 딥러닝의 근간이 되는 역전파 알고리즘을 개발했으며, 인공신경망을 이용한 머신러닝의 근간이 되는 발견과 발명에 기여한 공로를 인정받아 2024년 노벨 물리학상을 받았습니다. 동시에 토론토 대학교 교수이자 구글 연구자로도 활동한 힌턴은 AI 발전의 핵심 인물로 평가받고 있습니다.</p><p style="text-align:justify;"> </p><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image5.jpg"><figcaption>제프리 힌턴 <출처: 토론토 대학></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">주목할 만한 점은 힌턴 교수가 AI의 미래에 대해 가장 <strong>비관적인 전망</strong>을 제시하고 있다는 것입니다. 2023년 구글을 퇴사한 이유도 AI의 위험성을 적극적으로 경고하기 위함인데요. 최근 BBC 라디오 인터뷰에서는 AI 기술의 발전 속도가 예상을 크게 뛰어넘고 있다고 지적하며, “30년 내 인류 멸종 가능성이 10~20%에 이른다.”라는 충격적인 전망을 내놓기도 했습니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;">이러한 위험에 대응하기 위해 힌턴 교수는 정부 차원의 규제 강화를 주장하고 있습니다. AI 안전성 문제를 기업의 자율성에만 맡겨둘 수 없다는 것이 그의 핵심 주장입니다. 이러한 관점은 AI 상용화를 적극적으로 추진하는 OpenAI CEO 샘 올트먼과 첨예하게 대립합니다. 특히 “나의 제자(일리야 수츠케버)가 샘 올트먼을 해고했다는 사실이 자랑스럽다.”라고 밝히며, 안전한 AI 개발을 중시하는 수츠케버의 입장을 지지하고, 올트먼의 사업 중심적 접근을 정면으로 비판했습니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;"> </p><h3 style="text-align:justify;"><strong>얀 르쿤 “AI 발전을 향한 낙관론”</strong></h3><p style="text-align:justify;">두 번째로 살펴볼 인물은 얀 르쿤입니다. 메타의 수석 AI 과학자이자 뉴욕대학교 교수인 르쿤은 현대 AI 기술의 핵심인 합성곱 신경망(CNN)의 창시자입니다. 그가 개발한 CNN은 이미지 인식과 자율주행 등 다양한 분야에서 혁신을 이끌며, AI 기술 발전의 새로운 지평을 열었습니다. </p><p style="text-align:justify;"> </p><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image4.jpg"><figcaption>얀 르쿤 <출처: UCLA></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">힌턴과 함께 AI 산업의 중추적 역할을 해온 르쿤은 흥미롭게도 AI의 미래를 두고 상당히 낙관적인 입장을 보입니다. 그는 현재의 AI 기술이 인간의 지능과는 여전히 큰 차이가 있으며, 진정한 의미의 ‘범용 인공지능(AGI)’ 실현을 위해서는 근본적인 기술적 돌파구가 필요하다고 주장합니다. 이는 AGI 실현까지 상당한 시간이 소요될 것임을 시사합니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;">또한 그는 AI가 인류의 문제를 해결하는 데 핵심적인 역할을 할 것이라 믿습니다. 기후 변화, 질병 치료, 에너지 문제와 같은 복잡한 글로벌 이슈에서 AI가 혁신적인 해결책을 제공할 것이라 전망했죠. 다만 그는 AI 기술의 위험성을 지나치게 과장하는 것이 오히려 기술 발전을 저해할 수 있다고 경고합니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;">힌턴이 샘 올트먼과 대립각을 세우고 있다면, 르쿤은 일론 머스크와 논쟁을 펼치고 있습니다. 머스크는 “2025년 말에는 가장 똑똑한 인간보다 더 뛰어난 AGI가 등장하고, 2029년에는 전 인류의 지능을 합친 것보다 더 똑똑해질 것”이라는 예측을 내놓았는데요. 이에 르쿤은 ‘미친 음모론’이라며 강하게 반박했고, 과대 선전을 중단하라고 비판했습니다. 더 나아가 “나는 2022년 1월 이후로 80편 이상의 기술 논문을 발표했는데, 그동안 당신은 무얼 했나”라며, 근거 없는 루머 유포를 경계하는 발언을 내놓기도 했습니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;"> </p><h3 style="text-align:justify;"><strong>요슈아 벤지오 “AI, 기술이 아닌 학문으로서의 접근”</strong></h3><p style="text-align:justify;">세 번째로 알아볼 요슈아 벤지오는 몬트리올 대학교 교수이자 밀라(MILA) 연구소의 창립자입니다. 그는 현대 AI의 핵심 기술인 ‘어텐션 메커니즘’의 기초를 마련했는데요. 이는 ChatGPT와 같은 대규모 언어 모델의 근간이 되는 기술로, 이러한 공로를 인정받아 2019년 힌턴, 르쿤과 함께 컴퓨터과학 분야 최고 권위의 튜링상을 수상하기도 했습니다.</p><p style="text-align:justify;"> </p><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image1.jpg"><figcaption>요슈아 벤지오 <출처: EBS></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">벤지오는 힌턴과 마찬가지로 AI의 위험을 경고하고 있지만, 바라보는 관점에서 약간의 차이를 보입니다. 인류의 멸망과 같은 극단적인 전망보다는, AI가 잘못 설계되거나 악의적으로 사용될 경우 발생할 수 있는 사회적 혼란과 윤리적 문제에 초점을 맞추고 있습니다. 이를 대응하기 위해서는 AI를 ‘기술’이 아닌 ‘학문’으로 접근해야 한다고 강조합니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;">이러한 철학적 배경 때문에 힌턴과 마찬가지로 샘 올트먼과 대립각을 세우고 있습니다. “GPT 모델에 한계는 없다.”라고 단언한 샘 올트먼의 인터뷰를 보고 벤지오는 “매우 걱정스러운 일이며, 미래에 일어날 수 있는 중대한 변화를 예측할 때는 신중하게 접근해야 한다.”라고 비판했습니다. 또한 위험에 대비하기 위해 AI 개발 과정에서 투명성과 공정성이 필수이며, 글로벌 협력의 중요성을 강조했습니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;"> </p><h3 style="text-align:justify;"><strong>앤드류 응 “실용적 AI의 확산을 위한 노력”</strong></h3><p style="text-align:justify;">마지막으로 살펴볼 인물은 앤드류 응입니다. 스탠퍼드 대학교 교수이자 구글 브레인 공동 설립자로, 내한도 많이 해서 익숙한 분들도 있을 텐데요. 특히 구글 브레인에서 그가 주도한 비지도학습 기반의 고양이 이미지 인식 연구는 딥러닝 역사의 중요한 이정표가 되었습니다. 이 연구는 대규모 신경망이 실제로 복잡한 패턴을 학습할 수 있다는 것을 증명하며, 현대 딥러닝 발전의 토대를 마련했습니다. </p><p style="text-align:justify;"> </p><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image2.png"><figcaption>앤드류 응 <출처: 포브스></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">앤드류 응은 ‘AI 민주화’를 핵심 가치로 삼고 있습니다. “AI는 전기와 같다.”라고 말한 것이 대표적인데요. 경제, 사회 등 모든 분야에서 AI 기술을 폭넓게 사용할 수 있다고 주장합니다. 특히 전기가 전기톱으로도 쓰이고 있는 것처럼 긍정적인 일에 쓰일 수도 있고, 해로운 일에 쓰일 수도 있다고 말합니다. 범용적인 기술인 만큼 부작용의 가능성도 있지만, 그런 점에 너무 집착해서는 안 되며 전 세계 수많은 연구팀이 AI의 편향성 등 부작용을 해결하기 위해 노력하고 있기에 큰 문제가 없다는 태도입니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;">이처럼 AI가 범용적으로 활용될 수 있는 만큼, AI 기술의 접근성을 높이기 위해 AI 교육의 중요성을 강조합니다. 전 세계 누구나 AI 기술을 학습하고 활용할 수 있어야 하며, 이를 통해 AI 기술이 소수의 엘리트가 아닌 다수의 사람들에게 혜택을 줄 수 있어야 한다는 것이 그의 철학입니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;"> </p><h3 style="text-align:justify;"><strong>우리는 무엇을 준비해야 하는가?</strong></h3><figure class="image image_resized" style="width:100%;"><img src="https://www.wishket.com/media/news/2947/image6.png"><figcaption><출처: 작가 편집></figcaption></figure><p style="text-align:justify;"> </p><p style="text-align:justify;">4대 석학의 견해는 복잡하고 다양한 스펙트럼을 가지고 있어 이분법적으로 나누기는 어렵습니다. 대신 이해를 돕기 위해 단순화하여 표로 정리하면 위와 같습니다. 공교롭게도 낙관론과 회의론이 2:2로 나뉘었는데요. 이는 AI의 미래가 얼마나 예측하기 어려운지를 단적으로 보여주는 예시라고 할 수 있습니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;">다만 이들의 견해에서 한 가지 공통점을 발견할 수 있었습니다. 바로 AI가 잠재적 위험성을 내포하고 있다는 점입니다. 그러나 그 위험성의 정도와 대응 방안에는 뚜렷한 견해 차이를 보입니다. 힌턴과 벤지오는 정부의 강력한 규제와 국제적 협력을 강조하는 반면, 르쿤과 응은 업계의 자정 작용을 신뢰하며 과도한 규제에 대해 우려를 표명하고 있습니다. </p><p style="text-align:justify;"> </p><p style="text-align:justify;">그렇다면 우리는 AI의 미래를 어떻게 준비해야 할까요? 사실 AI 분야의 최고 석학들조차 의견이 엇갈리는 상황에서 일반인들이 미리 준비할 수 있는 일은 제한적일 수밖에 없습니다. 하지만 한 가지 분명한 것은 AI 기술에 대한 지속적인 관심과 이해가 필요하다는 점입니다. 스마트폰만 하더라도 오래된 기종을 사용하다가 최신 기종을 사용하면 적응에 애를 먹는 것처럼, 가장 진보된 기술이라고 불리는 AI 기술은 평소 관심을 두지 않으면, 나중에 적응하기가 몇 배는 더 어려워질 수 있습니다.</p><p style="text-align:justify;"> </p><p style="text-align:justify;">‘지피지기면 백전백승’이라는 말처럼 AI에 대해 잘 알고 있으면, 잠재적 위험성에 대해서도 대응할 힘이 생길 겁니다. 여러분의 생각은 어떠신가요?</p><p style="text-align:justify;"> </p><p style="text-align:center;"><span style="color:#999999;">©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.</span></p>