뇌 언어영역 전기신호를 AI가 목소리나 글로 변환시켜주는 기술
미국 워싱턴대 감각운동신경공학센터(CSNE) 제공
이세돌 9단과의 대국에서 압승을 거둔 바둑 인공지능 ‘알파고’를 만들어 낸 구글 딥마인드가 지난해 말 보드게임 분야에서 활용가능한 범용 인공지능 ‘알파제로’를 공개해 전 세계를 놀라게 했다. 최근 인공지능 기술이 눈부시게 발전하고 있다고는 하지만 사람처럼 모든 분야를 배워 활용할 수 있는 수준에는 이르지 못하고 있다.
또 특정 분야에서 활용되는 인공지능 역시 아직까지는 완벽하지 못한 것이 사실이다. 일반 대중들이 가장 가깝게 느끼는 인공지능인 AI 스피커 같은 경우도 목소리를 정확히 인식해 명령을 수행하는데는 어려움이 있다.
그런데 최근 잇따라 사람들이 머릿 속 생각을 말이나 글로 바꿔주는 기술이 초보적이기는 하지만 가능하다는 연구결과가 발표되고 있다. 세계적인 과학저널 ‘사이언스’는 지난 2일자에 이와 관련한 연구 추세를 소개했다.
뇌신경 손상으로 인해 말을 하거나 글을 쓸 수 없는 환자들의 경우 머릿 속으로는 말하고자 하는 내용이 있지만 이를 밖으로 끄집어 낼 수 있는 방법이 아직까지는 없다. 그런데 미국 콜드스프링하버 연구소에서 운영하는 생물학 분야 출판 전 논문공개 사이트인 ‘’바이오아카이브’(bioRxi)에 최근 공개된 세 편의 논문에 따르면 뇌 속에 이식된 전극을 통해 얻은 신호를 신경망 컴퓨터를 이용해 단어와 문자로 재구성하는데 성공했으며 일부는 사람들이 바로 이해할 수 있을 정도의 수준이 됐다는 것이다.
지난해 초 타계한 세계적인 물리학자 스티븐 호킹처럼 눈이나 미세한 몸짓으로 컴퓨터 커서를 작동시키거나 화면의 글자를 선택해 말을 하거나 글을 쓸 수 있지만 언어의 톤이나 억양을 조절하거나 대화에 빠르게 끼어들지는 못한다.
연구팀들이 개발한 기술은 인공지능과 신경망 컴퓨터를 이용해 뇌 신호를 언어로 직접 전환할 수 있는 방법의 첫 발을 내딛은 수준이다.
우선 미국 컬럼비아대, 호프스트라 노스웰 의대 공동연구팀은 5명의 뇌전증 환자의 청각피질에서 얻은 전기신호를 바탕으로 연구를 수행했다. 연구팀은 환자들이 오디오북과 숫자를 말하는 사람들의 목소리를 들을 때 발생하는 전기신호를 분석해 생각을 언어로 표현할 수 있도록 구성했다. 그 다음 사람들의 신경 신호를 컴퓨터 음성으로 재구성해 사람들에게 들려준 결과 75% 정도의 정확성으로 알아들었다는 것이다. 이 연구는 지난해 10월 바이오아카이브에 실렸다.
바이오아카이브 11월 말에 실린 또 다른 논문에는 독일 브레멘대, 네덜란드 마스트리흐트대, 미국 노스웨스턴대, 버지니아 커먼웰스대 공동연구팀이 뇌종양 수술을 받은 환자 6명을 대상으로 한 연구결과가 실렸다.
연구팀은 환자들에게 한 음절씩 단어를 크게 읽도록 해 녹음하는 동시에 전극으로 뇌의 음성계획영역과 목소리로 단어를 발음하도록 명령을 내리는 운동영역의 전기신호를 기록했다. 연구팀은 신경망 컴퓨터로 전기신호를 오디오 기록과 매핑시킨 다음 환자들이 발음하지 않은 단어를 생각하도록 해 인공지능으로 단어를 말할 수 있도록 해본 결과 40% 이상 이해 가능한 것으로 나타났다는 것이다.
뇌전증 환자의 대뇌에 전극을 설치해 전기신호 이상 유무를 체크하고 있는 모습사이언스 제공
미국 캘리포니아 샌프란시스코대(UCSF) 의대 신경외과 연구팀은 세 명의 뇌전증 환자들에게 글을 읽도록 한 뒤 언어영역과 운동영역에서 포착된 뇌신호로 끄집어 낸 다음 이 신호들을 재조합해 컴퓨터가 문장을 구성하도록 했다.
이렇게 뇌 신호로만으로 만들어진 컴퓨터 언어를 166명의 일반인들에게 들려준 뒤 이해정도를 측정한 결과 80% 이상의 정확도로 이해가 됐다는 연구결과를 발표했다. 이들은 앞선 연구진들보다 한 발 더 나아가 문장을 생각하도록 하고 소리 내지 않고 입만 뻥긋하는 동안 전기신호만으로 인공지능 컴퓨터가 문장을 구성하는데도 성공했다.
크리스티앙 헤르프 네덜란드 마스트리흐트대 교수는 “뇌-컴퓨터 인터페이스 연구는 생각을 컴퓨터의 목소리로 즉시 구성해내는 것이 궁극적인 목표”라면서 “상상된 언어를 실제로 구현하기 위해서는 좀 더 노력이 필요하겠지만 AI 기술과 결합될 경우 말하지 못하는 환자들에게도 일종의 ‘언어보철물’이 생기는 것”이라고 설명했다.
(원문: 여기를 클릭하세요~)
아래는 2022년 1월 5일 뉴스입니다~
(원문: 여기를 클릭하세요~)
‘AI 윤리’ 연구하는 옥스퍼드대 교수의 경고
photo Keiko Ikenchi
테크놀러지(이하 테크) 시대다. 유토피아(Utopia)에 이를 지름길로 만병통치약 같은 테크를 기대한다. 최근 주목받는 메타버스(Metaverse) 세계는 그 같은 테크 유토피아의 전위로 느껴진다. 현장에 안 가고도 웹을 통해 실제 생활을 할 수 있다고 여긴다. 깜찍한 아바타 이미지를 통해 3차원 몸동작이나 감정 표현, 나아가 상거래도 가능하다. 전염병 시대에 맞춰진 신세계가 눈앞에 등장했다. 그러나 테크가 유토피아를 보장하지는 않는다. 다소 엉뚱하게 들리겠지만 초읽기에 들어간 듯한 우크라이나와 러시아 전쟁은 좋은 본보기다.
군사전문가들은 지금까지 인류가 경험하지 못한 AI(인공지능) 전쟁의 현실이 두 나라 간 전선에서 펼쳐질 것이라고 경고한다. 현재 러시아는 우크라이나 군인들의 모바일폰 전화번호를 전부 파악하고 있다고 알려졌다. 우크라이나 병사가 친구 이름으로 전송된 문자메시지를 보면, 그 병사의 부모 거주지와 자녀의 학교, 나아가 자주 가는 레스토랑 이름까지 파악 가능하다. 마음만 먹으면 가족이나 주변 누구라도 살상할 수 있다는 경고다. 전선에 배치된 우크라이나 장군에게 딸 이름의 전화가 걸려온다. 모바일폰을 여는 순간 곧바로 자폭(自爆) 드론이 밀려든다. 공중에 떠돌던 참새 크기의 음속 드론이 우크라이나 장군의 모바일 위치를 추적해 단행하는 AI 공격이다.
이미 4년 전 일이지만 펜타곤 관계자로부터 북한 지도부의 모바일폰 전화번호를 전부 파악하고 있다는 얘기를 들었다. 한국에서 전쟁이 터질 경우 북한 수뇌부도 자폭 드론 공격에 직면할 수 있다는 얘기다. 우크라이나는 2014년 러시아와의 전쟁 때부터 전장에서 모바일폰 사용 자체를 금지시켰다. 실수로 사용하는 순간, 주변 전체가 불바다로 변할 수 있다는 우려 때문이다.
AI, 빅데이터, 메타버스는 닭과 달걀의 관계라 볼 수 있다. 크게 보면 ‘AI=빅데이터=메타버스’로 동격화할 수 있다. 현재 따라가기도 어려울 정도의 속도로 발전, 진화하고 있다. 전염병 시대 경기 부양을 위해 풀린 돈의 대부분이 이들 영역으로 몰리고 있다. 음과 양은 항상 ‘동시에’ 존재한다. 유토피아가 있다면 디스토피아(Dystopia)도 있다. AI 살상무기나, 중국이 소수민족 위구르에 자행하고 있는 1984식 빅브라더 감시체제는 디스토피아의 본보기 중 하나다. 그러나 대부분의 사람들은 ‘테크 디스토피아’를 무시하거나 무관심하게 대한다. 돈이 배경에 있다고 본다. 미래 성장주로 떠오른 이상, 주식 투자가들이 보면 테크가 불러올지 모를 디스토피아는 이단적 사고에 불과하다. 그러나 아직 희망은 있다. 유토피아는 물론 디스토피아도 염두에 두면서 테크의 방향과 미래를 조망하는 사람들도 적지 않기 때문이다.
영국 옥스퍼드대학 철학과 윤리담당 교수 존 타시올라스(John Tasioulas)는 그 같은 영역에서 활동하는 전문가 중 한 명이다. 물과 불의 관계라고나 할까? 도저히 어울리지 않을 것 같은, ‘AI와 윤리’가 그의 연구 분야다. 모두 유토피아 테크를 꿈꾸는 순간, 타시올라스 교수는 ‘윤리 정립을 통한 올바른 AI’의 미래에 매달리고 있다. 영국 런던 옥스퍼드대학으로 줌을 연결해 AI 윤리의 오늘과 내일에 대해 물어봤다.
– 최근 조 바이든 대통령이 AI 무기개발에 관한 규제법들을 대폭 완화하겠다고 발표했다. 거기에 대해 당신은 ‘슬프지만 놀랍지는 않다(Sad but Unsurprising)’라고 반응했다. 서로 상반된 표현인데 어떤 의미인가. “하이테크가 전쟁과 연결된다는 점에서 슬프다고 볼 수 있다. 하이테크를 인간에게 좀 더 유용하게 사용할 수 있을 텐데 살상용으로 사용한다는 점에서 그렇다. 인간이 컨트롤하기 어려워질 AI 무기개발을 완화한다는 점에서 슬프다. 놀랍지 않다는 말은, AI 무기개발에 관한 미국의 생각은 이미 예상됐다는 점에서 나온 표현이다. 세계 그 어떤 나라도 AI 무기에 대한 자체 통제에 나서지 않고 있다. 미국만 자체 통제에 들어갈 경우 군사전략적 열세에 놓이게 될 것이다. 그런 현실을 피하기 위해 바이든이 정책을 수정했다는 점에서 이미 예상된 상황이기도 하다. 아직 글로벌 협력이나 룰이 없는 상황에서 미국만 혼자 고립될 수 없기 때문에 ‘놀라울 것이 없다’고 말했다.”
– 팬데믹이 장기화하면서 ‘글로벌 시대의 종언’이란 말이 곳곳에서 들린다. 곧바로 테크가 만병통치약으로 작용하는 파라다이스가 글로벌 시대의 뒤를 잇는 느낌이다. AI, 빅데이터, 메타베스의 동시 출현을 어떻게 보는가. “인간은 세상의 흐름을 좇아가려는 본능이 있다. 어떤 변화가 갑자기 밀려들 경우 모두 불가항력적으로 추종하는 공기도 나타난다. 글로벌 시대는 그 같은 부화뇌동 세계관의 결과라 볼 수 있다. 대부분 글로벌 시대를 운명이라 생각하면서 추종했지만, 사실 반드시 따라야 할 진리는 아니었다. 글로벌 시대에 이어 글로벌 민주주의도 전 세계 시대정신이 될 것이라 믿은 적이 있었다. 그러나 현실은 다르다. 글로벌 시대가 될수록 반(反)민주주의 국가가 한층 더 큰소리 치는 시대로 접어든다. 최근 나타난 ‘테크 만병통치 파라다이스’도 마찬가지다. 갑자기 AI, 빅데이터, 메타버스가 미래의 약속이자 대세로 등장한다. 모두 그쪽으로 몰려가지만 환상에 불과하다. AI, 빅데이터, 메타버스 가운데 어떤 것을, 어떤 기준하에 선택, 집행하느냐에 따라 결과가 전혀 달라지기 때문이다. 과거의 상황을 보면 글로벌 시대와 민주주의는 ‘선택의 문제(Matter of Choice)’였을 뿐 ‘반드시 도래할 필연(Necessity)’과 무관했다. 현재 곳곳에서 AI가 펼칠 환상적 세계가 논의되고 있다. 그러나 반대로 AI가 창조해낼 비극적 미래도 점쳐지고 있다. 어느 하나만 보지 말고 거시적이고 장기적인 차원에서 이해하기 바란다. 인간이 무엇을 선택하고, 어떤 기준에 따를지가 관건이다.”
타시올라스 교수는 그리스 출신 철학가다. 옥스퍼드대학 박사, 게다가 윤리학을 공부하는 그리스인과의 인터뷰는 처음이다. 그것도 AI와 윤리라는 깊고도 어려운 테마다. 필자의 능력을 뛰어넘는 인터뷰이기에 대화 내내 긴장해야만 했다. 철학 강의를 듣는 느낌이기도 했지만, 기본 용어에 대한 개념을 확실히 잡는 것이 중요하다고 느꼈다.
– 윤리를 어떤 식으로 정의(Definition)할 수 있는가. “좋은 질문이다. 나는 ‘AI 윤리’를 얘기할 때 항상 걱정이 앞선다. 사람들이 너무 좁은 의미로만 해석하기 때문이다. 일반적으로 통용되는 윤리의 의미를 살펴보자. 개개인이 외부의 제재 때문이 아니라 스스로 지키는 원칙이자 가치가 윤리에 관한 일반적 정의다. ‘법적 차원의 제재(Legal Regulation)’가 아니라 스스로 앞장서서 자신을 규제하면서, 특별한 신념(Code)에 기초해 행동하는 것을 윤리의 출발점이라 말한다. 옳기는 하지만 이것도 미시적 차원의 제한된 정의에 불과하다. 윤리는 철학적 차원에서 이해해야 할 아주 폭넓은 테마다. 크게 두 가지 측면에서 살펴볼 수 있다. 첫째 ‘인간에게 있어서 어떤 것이 좋은 인생(Good Life)인가’에 관련된 문제다. 인간의 삶에 도움을 주는 것이 무엇이고, 해를 입히는 것이 어떤 것인지 파악하는 것이 윤리의 개념을 이해할 첫 번째 단서다. 둘째 ‘인간은 타인의 도움 없이는 살아갈 수 없다’는 사실을 인지하는 것이다. 사람만이 아니라 동물이나 환경으로부터의 직간접 도움 없이는 살아갈 수 없다는 것이 윤리의 개념을 이해할 두 번째 근거다. 이 두 가지 문제에 대한 근본적 이해와 실천 없이는 윤리의 정의를 파악하기 어렵다.”
– 2001년 9·11 동시테러 직후 ‘문명의 충돌’이란 말이 유행했다. 2021년 AI 현황을 보면 ‘윤리의 충돌’이란 생각이 든다. 인간 유전자 조작을 대수롭지 않게 생각하면서 ‘과학 만세’를 외치는 나라가 이미 등장했다. 중국, 미국, 유럽의 AI 윤리가 전부 다르다. “AI 윤리관은 천차만별이다. 서로 다른 생각과 입장을 고려한 해결방안이지만, 내가 생각하는 AI 윤리의 출발점은 교육현장에 있다. 대학에서 학생들과의 토론에서부터 합일점을 찾아내야만 한다. 교육현장이나 대학은 집행력이나 결정권도 없는 미약한 집단이다. 그러나 토론을 통해 서로 다른 생각을 하나의 접점으로 이어나갈 몇 안 되는 통로 중 하나다. 인권은 옥스퍼드대학과 주변 커뮤니티가 관심을 갖는 주요 현안 중 하나다. 알다시피 중국, 미국의 인권 개념은 다르다. 중국은 인권을 가지려면 그만한 자격이 있어야만 한다고 말한다. 서방은 태어난 인간 모두 인권을 갖고 있으며, 행동에 따라 인권이 사라지지는 않는다고 말한다. 미국과 유럽은 같은 서방이라도 세부적 차원의 인권 개념이 서로 다르다. 인권 문제 하나만 봐도 유럽, 미국, 중국 3개로 나뉘는 판이다. 과연 이런 상황하에서 AI 윤리에 관한 국제적 합의를 창조해낼 수 있을까? 서로 다른 문화와 상황에 기초한 나라가 단 하나의 국제적 합의로 나아가기는 어렵다. 중요한 것은 차이점이 아니라 서로가 가진 공통점을 찾아내면서 서로 간의 균형점을 발견해내는 데 있다. 공통점에 기초한 균형점을 생각하면서, 각각의 문화나 상황에 맞는 ‘다양한 룰’을 적용할 수 있을 것이다.”
유네스코(UNESCO)는 지난 11월 24일 인류 최초로 ‘글로벌 AI 원칙’을 발표했다. ‘데이터 보호, 사회 통제와 대중 감시에 AI 활용금지, AI 관련 검증과 평가, 환경보호’가 유네스코 AI 4대 원칙이다. 집행력이나 강제력이 없다는 점에서 선언에 그치는 권고안에 불과하다. 중국은 AI 4대 원칙 대부분에 정면 배치되는 나라다.
– 유네스코의 글로벌 AI 윤리를 어떻게 평가하는가. “글로벌 AI 윤리는 이제 막 시작된 새로운 시대의 나침반이다. 유네스코 AI 윤리 권고안은 일반적이고 기본적인 사안을 명문화했다. 앞으로는 좀 더 구체적이고, 현장에서 응용하면서 실천할 수 있는 원칙과 가치로 나아가야만 할 것이다. AI 윤리 문제를 의료 영역과 사회정의에 연결할 때 상당히 다른 접근 방법이 필요할 것이다. 민주주의 국가나 사회에서 개인 스스로 지켜야 할 윤리가 될지, 아니면 법적 제재력을 동원한 공공의 윤리가 될지에 대한 얘기도 거론돼야만 한다. 법적 제재력을 갖춘 최소한의 공통 윤리를 과연 어떤 식으로 AI에 연결할지에 대한 국제적 의견 교환도 필요하다. 글로벌 AI 윤리는 투명하고 오픈된 상태로 나아가야만 한다.”
– AI, 빅데이터에 대한 윤리와 관련해 현재 영국과 유럽에서 가장 많이 거론되는 이슈는 무엇인가. “프라이버시 침해 문제가 최대 현안이다. AI, 빅데이터와 관련해 프라이버시를 얼마나 보호할 수 있는가라는 문제가 핵심이다. AI, 빅데이터가 자유로운 발언(Free Speech)이나 정치적 역동성에 어긋날 우려와 논의도 곳곳에서 일고 있다. 그러나 AI, 빅데이터가 갖는 역사적 의미를 고려할 때 진짜 현안은 다른 곳에 있다고 판단된다. ‘AI, 빅데이터가 갖는 의미와 역할은 무엇인가’라는 문제가 핵심이다. 곳곳에서 AI, 빅데이터가 인간을 대신해 판단하고 결정하는 상황이 나타나고 있다. 인류의 행복과 번영에 관한 문제를 AI, 빅데이터가 관여하기 시작했다는 의미다. AI, 빅데이터의 역할과 기능이 어디까지 갈지에 대한 논의가 지금 당장 필요하다.”
– 글로벌 전략가 이안 브레머(Ian Bremmer)와 인터뷰를 한 적이 있다. AI 디스토피아를 막기 위해 ‘세계 데이터 기구(World Data Organization)’ 창설이 필요하다는 말이 기억에 남는다. 유럽에서 그 같은 국제기구의 창설을 논의한 적이 있는가. “처음 듣는 얘기지만, 중요한 제안이라 생각한다. AI, 빅데이터를 통한 인류의 행복과 번영은 절대 필요하다. 그러나 활용 과정에서 글로벌 차원의 원칙과 규범이 필요하다. AI, 빅데이터는 개발 즉시 글로벌 차원으로 확산되기 때문이다. 특히 의학·의료 문제에 관련한 AI, 빅데이터의 글로벌 기준이 당장 필요하다. 의학·의료에 관한 기준은 장기적 차원에 걸쳐 여러 가지 측면을 고려한 것이어야만 한다. 세계보건기구(WHO)에서의 경험은 좋은 사례가 될 수 있다. ‘실패와 성공의 요인과 배경은 무엇이었던가’에 관한 교훈이다. 글로벌 기구를 통해 문제해결에 나설 경우 두 가지 측면을 염두에 둬야만 한다. 첫째 중요한 현안을 하나로 몰아가면서 지금 당장 할 수 있는 일에만 집중해야 한다. 둘째는 그 같은 일을 행할 수 있는 능력을 최대한 보장, 지원하는 것이다.”
3개월 뒤 대통령 선거가 치러지는 한국의 정치 상황을 보면 원칙과 가치가 무너졌다는 생각이 들지 않을 수 없다. 무엇을 위한 정치인가라는 근본적인 물음에 대한 답을 찾기 어렵다. 한국의 법치도 마찬가지다. 무엇을 위한 경찰, 검찰, 법원인가라는 물음에 대한 답을 찾기 어렵다. 정치 윤리, 법의 윤리, 비즈니스의 윤리가 허물어진 지 오래라고 해도 제각각 중구난방 변명에 불과하다. 타시올라스 교수는 윤리의 기초이자 배경으로 휴머니즘을 강조한다. 정치, 법, 비즈니스 예외 없이, 결국 인간을 위한 휴머니즘이 기본이다. 흥미롭게도 타시올라스 교수는 휴머니즘과 더불어 예술(Arts)도 윤리의 기초라 강조한다. 예술을 통한, 예술을 위한 세계관이 윤리관 정립에 필수적이라 말한다.
– 왜 예술이 윤리로 연결되는가. “철학자는 물론 과학자라도 일에 관련한 나름대로의 윤리를 갖고 있다. 과학적 진실을 추구하는 과정에서 방대한 데이터에 몰두하면서 수집하려 한다. 과학의 세계에 해당하겠지만 ‘데이터 확보=윤리’라 볼 수 있다. 사람들의 지지(Preference)를 받기 위해, ‘데이터의 최대화(Maximize)·최적화(Optimize)’가 과학자의 윤리로 변해간다. 그러나 철학적 관점에서 보면 데이터의 최대화·최적화라는 과학적 윤리는 한계를 갖고 있다. 사람들의 지지와 박수가 전부는 아니기 때문이다. 간과하기 쉽지만, 사람들의 지지와 박수는 잘못된 길로 가는 경우가 비일비재하다. 철학적 차원의 윤리는 사람만이 아니라 그 자체가 갖고 있는 ‘근본적인 가치(Genuine Value)’에 주목한다. 그렇다면 어떤 식으로 근본적인 가치를 알아낼 수 있을까? 철학적 자문자답을 통해 얻어낼 수 있다. 인간을 인간답게 만드는 것은 무엇인가, 인간은 다른 사람에게 어떤 의무를 지고 있는가, 인간은 무엇을 위해 사는가에 관한 고민이 대표적인 본보기다. 예술은 그 같은 자문자답 과정에서 얻을 수 있는 가치 그 자체이자 목적이라 볼 수 있다. 음악, 미술, 조각, 문학과 같은 것들이야말로 사람들의 윤리의식을 북돋아주고, 인간 삶의 목적이 될 수 있다. 데이터에 집중하는 과학적 차원의 윤리만이 아니라, 예술적 감각을 통한 예술과의 만남이 근본적인 가치 발견으로 이어진다. 예술은 단순히 즐기고 감동하는 차원의 오락에 그치지 않는다. 예술은 그 자체에 ‘근본적인 가치’를 갖고 있는, 윤리의 교본이 될 수 있다.”
– AI 발전과 더불어 프라이버시와 공공의 선(善) 사이에 충돌이 일고 있는 듯하다. “서방의 경우 프라이버시 문제가 AI 관련 핵심 과제다. 코로나19 상황에서 경험하고 있지만, 빅데이터 축적 과정에서 프라이버시가 침해되는 것은 필연적이다. 감염자가 나오는 순간 이전에 만났던 사람들에 대한 신상 파악에 들어가기 때문이다. 중국에서 볼 수 있지만, 공공의 선이란 명분하에 개인 프라이버시 침해가 일상적인 나라도 있다. 우리는 두 가지 서로 다른 관점하에 세계를 동시에 이해하면서 AI 미래에 대응해 나가야만 한다.”
페이스북이 최근 메타로 회사 이름을 바꿨다. AI 신시대를 준비하자는 의미겠지만, 최근 페이스북이 가진 오명에서 벗어나려는 의도이기도 할 것이다. 페이스북은 이런저런 이유로 개인정보를 외부에 유출한, 디지털 시대 ‘공공의 적’으로 추락했다. 페이스북만이 아니라 빅테크 모두 어떤 식으로든 개인정보 유출에서 자유로울 수 없을 것이다.
– AI 윤리와 관련해 글로벌 빅테크에 어떤 어드바이스를 하고 싶은가. “페이스북 추문의 여파겠지만, 빅테크 내에 윤리위원회나 특별기구를 두는 것이 일상화되고 있다. 빅테크가 나에게도 와서 AI 윤리 문제를 상의하고 있다. 빅테크와 대학의 상호 협력하에 AI 윤리에 관련한 최고위 결정도 내리고 있다. 그러나 아직 만족할 수준이 되기까지는 멀었다. AI 윤리를 구체적으로 법제화하기까지는 많은 시간과 노력이 필요하다. 아리스토텔레스가 남긴 명언으로 ‘집에서 매일 살아가는 사람의 그 집에 대한 지식과 이해가, 집을 지은 건축가보다 한층 더 높고 깊다’라는 말이 있다. 빅테크와 대학 사이에서 논의된 AI 윤리가 시민들에게도 충분히 투명하게 전달돼야 한다. AI 윤리를 시민들과 함께 풀어나가자는 것이 나와 옥스퍼드의 기본방침이다.”
아래는 2023년 2월 27일 뉴스입니다~
(원문: 여기를 클릭하세요~)
챗GPT란 무엇인가:가장 쉽게 설명해드립니다
1904년 독일, 사칙연산을 할 수 있는 천재적인 말 ‘한스’가 나타나 세상을 깜짝 놀라게 한 일이 있었습니다. 당시 수학교사였던 오스텐 씨는 ‘내가 기르는 말은 수학계산도 할 줄 안다’고 자랑하며, 사람들을 모아놓고 자신이 키우던 말이 수학 문제를 맞히는 모습을 보여줬습니다. 수학문제를 내면 문제의 정답만큼 한스가 발굽으로 땅을 두드리는 식이었습니다. “2 곱하기 2는?” 질문을 하면 한스가 발굽으로 땅을 4번 두드리는 것이죠. “하나…둘…셋…” 한스의 발굽과 함께 숫자를 세는 구경꾼들의 목소리는 점점 흥분으로 가득 찼습니다. 한스가 발굽을 네 번 두드리고 멈추자, 충격에 휩싸인 구경꾼들에서 우레와 같은 환호성이 터져 나왔습니다.
수천만 년을 홀로 지성을 가진 생명체로 살아왔던 인간들은, 자신과 흡사한 지적능력을 가진 생물체를 발견하면 엄청난 충격과 기대감, 두려움을 느끼는 것 같습니다. 게다가 그 생물체가 인간이 타고 다니던 ‘말’이라니, 얼마나 놀랍고 무서웠을까요. 자연에 대한 이해도 지금만큼 깊지 않았던 시절, 부랴부랴 동물학자와 심리학자 등 각계 전문가로 이루어진 ‘한스 위원회’를 꾸려 한스를 조사했지만, 위원회는 ‘한스는 지성을 타고났다’며 두 손을 들고 말았습니다. 천재적인 말 한스의 등장은 당시 뉴욕타임즈 1면을 장식했습니다.
한스는 정말 지성을 가진 동물이었을까요? 얼마 가지 않아 한스의 비밀이 밝혀졌습니다. 한스는 수학문제를 풀었던 것이 아니라, 사람들의 반응을 관찰하는 능력이 뛰어났던 거죠. 한스가 발굽을 두드릴 때마다 “하나…둘…셋…넷…”하고 숫자를 세던 군중들의 목소리 톤은 미세하게 변했고, 목소리가 가장 흥분으로 고조됐을 때 발굽을 멈추어야 한다는 걸 한스는 알았던 것입니다. 어쨌든 영리한 말이었던 건 사실이었던 것 같네요. 다만 인간과 유사한 지성을 가진 생물체가 등장했다는 충격은 곧 수그러들었습니다.
100여 년 후 ‘지성을 가진 물체’의 등장에 전 세계는 다시 한번 충격과 공포에 휩싸입니다. 바로 챗GPT입니다. 이번에는 인간과 거의 흡사한, 혹은 더욱 뛰어난 지성체가 나타났다고들 합니다. 물론 챗GPT를 한스의 사례에 비견할 수는 없을 것 같습니다. 이번에는 단순 눈속임이 아니라, 사칙연산은 물론이고 아주 복잡하고 어려운 계산도 척척 수행할 수 있다는 게 틀림없어 보입니다. 인간처럼 시도 쓰고, 질문에 답도 하고, 인간의 지성이 언어를 통해 할 수 있는 거의 모든 일을 할 수 있는 것처럼 보이죠. 어떤 부분에서는 평균적인 인간보다 훨씬 더 뛰어나게 말입니다. 뛰어난 지능을 가진 호모 사피엔스의 등장에 다른 영장류들이 동물원 신세를 지게 됐듯이, 챗GPT의 등장으로 인해 ‘인간이 AI의 애완동물로 살게 되는 게 아니냐’라는 공포스러운 예견도 나옵니다.
두려움을 이겨내는 가장 좋은 방법 중 하나는 ‘분석’입니다. 챗GPT가 어떤 조각들로 구성돼 어떻게 동작하고 있는지, 이해할 수 있는 수준까지 분해해보는 거죠. 그러다보면 챗GPT가 사실 생각보다 그리 무서운 존재가 아니란 걸 알게 될 수도 있죠. 또 챗GPT가 앞으 무엇을 할 수 있을지, 어떤 걸 할 수 없는지도 더 잘 알 수 있지 않을까요.
챗GPT는 크게 두 번의 학습을 통해 만들어집니다. 먼저 챗GPT의 본체 격인 ‘GPT’에 지식을 학습시키고, 그 다음엔 GPT에게 질문에 답을 하는 행동을 하도록 학습 시키는 거죠. GPT가 나타내는 ‘Generative Pre-trained Transformer’의 ‘Pre-trained(미리 학습됨)’은 바로 질문에 답하기, 번역하기 등 특정한 행동을 학습시키기 전에 미리 지식만 학습시키는 과정을 거쳤다는 뜻입니다. 이후에 그 GPT에게 ‘챗(chat, 대화)’을 하도록 훈련시켰다는 뜻이죠.
그러면 먼저, GPT는 어떻게 지식을 학습했을까요? ‘다음 낱말 맞추기 연습’을 무한히 반복시킨다고 보면 됩니다. 그 이상도 그 이하도 아니죠. 예를 들어 “나는 밥을 _____”라는 문장이 있을 때, 이 마지막 빈칸에 들어올 단어가 무엇인지 맞추도록 하는 거죠.
GPT 최신 모델인 GPT-3는 약 1억5000개의 단어를 기반으로 만들어졌다고 알려져 있습니다. 그건 GPT가 단어 맞추기 문제를 할 때, ①“나는 밥을 ‘핸드폰’” ②“나는 밥을 ‘사슴벌레’” ③“나는 밥을 ‘버렸다’” ④“나는 밥을 ‘먹었다’”…와 같은 선택지가 1억5000개 있다는 뜻입니다. 5지선다형 문제가 아니라 1억5000지선다형 문제가 되겠네요.
과학자들은 “나는 밥을”로 시작하는 문장 수십 수백만 개를 구해 GPT에게 문제를 내줬습니다. 문제에 대한 답은 늘 같지는 않지만, 특별히 많이 나타나는 답이 있겠죠. 일단 ‘사슴벌레’ 같은 생뚱맞은 명사가 정답이 된 일은 없을 거구요. ‘먹었다’가 가장 자주 정답이 됐겠죠. 혹은 가끔 ‘맛있게’ 같은 단어도 정답이 됐을 것입니다.
그러면 GPT는 이 문제풀이를 통해 ‘밥을’ 다음에는 ‘먹었다’, ‘맛있게’ 와 같은 단어들이 등장할 가능성이 높다는 것을 학습합니다. 이는 달리 말하면, ‘밥’이라는 단어와 ‘먹다’ ‘맛있다’라는 단어 사이에 관련성이 높다는 점을 학습한다는 뜻이죠. 이와 같은 방법으로 ‘밥’이 ‘밥솥’, ‘냉장고’, ‘반찬’ 등과 관련이 있다는 것도 학습하게 될 겁니다.
GPT가 미리 학습했다는 ‘지식’이란 바로 이 단어들 사이의 관계에 지나지 않습니다. ‘지식’이라는 단어는 이보다 더 깊은 의미를 지니겠지만, 적어도 GPT에게는 그 이상의 의미를 지니지 않습니다. GPT는 ‘밥’이 무엇인지, ‘먹었다’가 무엇인지, ‘맛있다’가 무엇인지 전혀 알지 못합니다. 단지 이 단어들끼리 관련성이 높고, 그래서 같은 문장 안에 나타날 가능성이 크다는 것만 알고 있는 것이죠. 이 학습 내용을 바탕으로, 훗날 챗GPT에게 ‘밥과 관련된 이야기를 써줘’라고 부탁하면 ‘맛있는 것을 먹고 싶어서 냉장고를 뒤졌는데 밥과 반찬이 있었다’처럼, 서로 관련 있는 단어들을 집어넣은 그럴듯한 문장을 지어내게 됩니다. 어때요, 어찌 보면 수학문제를 풀 줄 아는 똑똑한 말 한스와 크게 달라 보이지 않습니다.
그 공부방법도 참 무지막지하죠? GPT는 ‘밥’과 ‘밥솥’의 관계를 학습하기 위해 수없이 많은 1억5000지선다형 객관식 문제를 풀었습니다. 위키피디아, 각종 책과 자료들을 비롯한 45테라바이트에 달하는 양의 문서를 문제로 내줬다고 하네요. 학습에 필요한 전기료 등 비용을 충당하는 데 수백만 달러가 들어갔습니다.
그런데 잠깐, ‘나는 밥을’까지만 알려줬더니 ‘맛있다’를 선택할 수 있게 된 기계. 어디서 많이 보지 않았나요? 맞습니다. 이런 종류의 인공지능은 이미 10여 년 전부터 우리의 일상 속에 즐비하게 자리 잡고 있었습니다. 네이버, 구글과 같은 대형 검색 포털의 문장 자동완성 기능, 스마트폰의 문자 자동완성 기능이 그것입니다. 이 기능에 사용된 인공지능 모델은 GPT의 머나먼 선배 격인 RNN(순환신경망)이지만, 학습 방식은 거의 같습니다.
우리가 이 문장 자동완성 기능을 처음 봤을 때, 크게 놀랐었나요? 그냥 ‘그렇구나~’ 정도로 넘기는 분위기였죠. GPT도 마찬가지입니다. GPT는 고도로 발달된 ‘문장 자동완성 기계’에 지나지 않습니다. 놀라지 않으셔도 돼요.
‘나는 밥을’ 뒤에 ‘먹었다.’가 온다는 것을 맞추게 된 GPT. 또 뭘 할 수 있을까요? ‘나는 밥을 먹었다.’ 뒤에 어떤 단어가 올지도 맞출 수 있겠죠. 마찬가지로 그 자리에는 ‘말벌’ 같은 뜬금없는 단어보다는 ‘냉장고’나 ‘반찬’ 같은 명사가 나올 가능성이 크겠죠. 이런 식으로 ‘다음 단어 맞추기’를 반복해 단어를 하나씩 하나씩 맞춰서 붙이다보면 ‘나는 밥을 먹었다. 냉장고에서 반찬도 꺼내 먹었다.’처럼 문장 뒤에 새로운 문장을, 그 뒤에 또 다른 문장을 붙일 수 있게 됩니다. GPT는 이런 식으로 논문 한 편을 써내는 것이죠.
‘다음 단어 맞추기’를 반복해 논문 한 편을 쓰다니, 두서없는 글이 되기 십상일 것 같은데요. 실제로 검색어 자동 완성에 쓰였던 초기 버전 인공지능도 똑같이 여러 문장을 이어서 쓸 수 있었지만, 글이 길어지면 앞쪽에 썼던 내용을 까먹어 주제를 알 수 없는 글이 되어버리는 문제가 있었습니다. 그런데 모델을 개선할수록 앞에서 썼던 문장들의 정보를 유지해 주제를 일관되게 지킬 수 있는 길이가 점차 길어졌습니다. 마침내는 GPT 모델에 이르게 됐죠. 다만 챗GPT도 약 15번의 문답 이후에는 앞쪽의 정보를 잊어버리는 비슷한 문제를 안고 있습니다.
대화형 인공지능 챗GPT는 한국이 기후변화에 대응하지 않을 경우 물부족과 폭염, 해수면 상승에 따른 피해를 받을 수 있다고 설명했다. 뉴스1
또 다른 의문이 생깁니다. GPT가 단어에 단어를 이어 붙여 그럴듯한 글을 써내는 것까지는 이해한다고 칩시다. 그런 GPT는 어떻게 사람이 묻는 말에 답도 하게 됐을까요?
여기서 GPT의 두 번째 학습이 필요해집니다. 위키피디아를 잔뜩 학습시켰던 GPT에게 문장들을 생성하도록 하면, GPT는 위키피디아 문서의 형식을 닮은 글을 쓰게 됩니다. 유튜브 댓글을 잔뜩 학습한 GPT에게 문장들을 생성하도록 하면 유튜브 댓글 형식을 닮은 글을 쓰게 됩니다. 그러면 GPT에게 ‘질문-답’ 형식의 글을 잔뜩 학습시키면 어떨까요? GPT가 생성하는 글은 ‘질문-답’형식을 띄게 됩니다. 그러면 이 GPT에게 ‘질문’이 담긴 글을 주고, 글의 나머지 부분을 완성시켜보라고 하면 어떨까요? 네 맞습니다. GPT는 ‘답’을 작성하게 되겠죠.
이렇게 질문을 주면, 나머지 ‘답’ 부분을 완성시키도록 학습된 모델이 바로 챗GPT입니다.
챗GPT가 인간을 돕고 싶은 마음으로 가득 차서 사람들의 질문에 척척 답 해주는 것이 아닙니다. 챗GPT는 질문에 대한 상호작용으로써 대답을 하는 것도 아닙니다. 챗GPT는 단지 ‘나는 밥을’ 다음 단어를 찾아내듯, 반쯤 끊긴 글의 나머지 절반을 채우는 작업을 고독하게 수행하고 있을 뿐입니다.
예를 들어 GPT에게 ‘문: 꽃은 어디에 있나요? 답 : 화분에 있습니다’ 라는 글을 학습시켰다고 칩시다. GPT는 앞으로 이 글의 형식을 닮은 문장들을 만들어내게 되겠죠. 이 GPT에게 ‘문: 밥은 어디에 있나요?’라는 글을 주고, 뒷부분을 완성하도록 해봅시다. 그러면 GPT는 원본 글의 형식을 복원하려고 하면서, 앞에서 학습했던 ‘밥’과 ‘밥솥’의 관계를 적용해 ‘문: 밥은 어디에 있나요? 답 : 밥솥에 있습니다’ 라는 글을 완성하게 되는 것이죠. GPT가 앞서 학습한 여러 단어들 사이의 관계를 응용한다면, 이런 형식의 수많은 질문에는 적절히 답을 해줄 수 있겠네요.
오픈AI의 챗GPT 논문에 실린 제작 과정. 수많은 직원들이 작성한 질문-답 대본을 챗GPT에 학습시켰다.
단지 여러 권의 책을 학습시켰더니 마법처럼 질문에 답을 척척 해내는 유연한 지성체가 탄생한 것이 아닙니다. 챗GPT에게 다양한 ‘질문-답’ 형식의 글을 잔뜩 학습시키기 위해 어마어마한 노력이 들어갔습니다. 챗GPT 제작사인 오픈AI는 40명의 계약직 인력을 고용해 GPT를 학습시킬 ‘질문-답’형식의 텍스트 1만3000개를 인간이 직접 작성하도록 했습니다.
이들에게 제공된 질문에는, 사람들이 챗GPT 초기 버전에 찾아와 입력했던 장난스러운 질문들도 모두 포함됐습니다. 직원들은 이 질문에 아주 길고 정성스러운 답을 직접 작성했습니다. 장차 챗GPT가 받게 될 웬만한 예상 질문들에 대한 모범답안 형식은 이미 인간의 손으로 다 작성이 됐다고 보면 되겠습니다. 거기에 ‘꽃’과 ‘화분’을 ‘밥’과 ‘밥솥’으로 바꾸는 종류의 변주가 가해지게 되는 것이죠.
직원들이 직접 작성한 ‘질문-답’ 대본에는, 챗GPT의 문답 중 세상을 깜짝 놀라게 했던 여러 가지 대화의 원본들이 있습니다. ‘개구리에 대한 소설을 써봐’라든지, ‘이 문장을 고쳐줘’라든지, ‘애기 이름을 지어줘봐. 예를들어 1.김병구 2.김민식’ 이라든지. 우리가 생각할 수 있는 웬만한 질문 유형들은 이미 직원들이 직접 그 틀이 되는 ‘질문-답’ 대본을 작성해놨습니다.
또 질문이 꼬리에 꼬리를 무는 경우에 대비해 직원들은 ‘질문-답-질문-답-질문-답’ 형식의 스크립트도 작성했습니다.
“인공지능이 어떻게 이런 질문에 답할 수 있지?” “어떻게 이렇게 반응할 수 있지?”라고 깜짝 놀랄만한 문답 대화의 기본적인 틀은 대부분 이미 직원들이 직접 손으로 써서 틀을 마련해놓은 것들이 많습니다. 그 원본이 챗GPT에 학습돼있는 것이죠.
챗GPT가 정말 성실하고 꼼꼼하게 답변한다고 느끼지 않으셨나요? 그것 또한 인간 직원들의 공이 상당히 큽니다. 오픈AI는 우선 이 40명의 계약직 직원을 채용할 때부터 상당한 노력을 기울였습니다. 오픈AI는 여러 명의 후보군 중에서 민감한 이슈를 적절히 판별하고 답하는 능력 등을 테스트해 40명을 선발했습니다. 이들에게 진실 되고 유용하며 성실한 대본을 쓰도록 적극적으로 교육했으며, 이들이 쓴 대본들은 공개 채팅 방에 공유됐기에 항상 감시와 검증을 받았습니다.
챗GPT는 이렇게 만들어진 꼼꼼한 질문-답 대본들을 응용해 다양한 질문에 대한 답을 만들고 있습니다. 때로 어떤 대답들은 비슷한 구조에 몇 가지 단어와 표현이 바뀐 것 같다는 느낌을 받게 되는 이유입니다. 또 미리 학습한 질문-답 형식을 벗어난 요청을 받으면 급격히 성능이 떨어지는 이유이기도 하죠. 챗GPT가 가끔 동문서답을 하는 이유를 이제 아시겠죠?
어떤가요. 이렇게 하나하나 떼어놓고 보니, 챗GPT는 단지 고도로 발달한 ‘빈칸 채우기 기계’에 지나지 않는다고 느껴지기도 합니다. 인간을 뛰어넘는 새로운 지성체가 나타났다는 두려움은 조금 가라앉는 듯 합니다.
뉴스1
그런데 말입니다. 이번에는 인간의 ‘앎’이란 그러면 얼마나 대단한 것인가에 대해 한번 생각해볼 차례인 것 같습니다.
GPT가 ‘장미꽃’에 대한 지식을 습득하는 과정을 생각해봅시다. GPT는 수많은 글의 ‘다음 단어 맞추기’ 문제를 풀면서, ‘장미꽃’ 다음에는 ‘빨간색’, ‘사랑’, ‘가시’, ‘어린왕자’, ‘향기’ 등의 단어가 등장할 확률이 높다는 것을 학습하게 됩니다. GPT는 장미꽃이 뭔지도 모르고, 빨간색이 뭔지도 모르고, 사랑이나 가시, 어린왕자 등에 대해서도 전혀 모릅니다. 단지 이 단어들이 서로 연관이 있다는 것을 잘 알고 있을 뿐이죠.
그러면 반대로 사람들에게 물어보겠습니다. 여러분은 장미꽃이 무엇인지 알고 있나요? 자신이 장미꽃을 안다는 것을 어떻게 증명할 수 있나요? GPT는 할 수 없고, 인간만이 할 수 있는 방법으로 그것을 보여줄 수 있을까요.
어떤 사람은 이렇게 얘기할 수도 있습니다. “나는 백과사전 속 장미꽃의 정의를 외울 수 있다. 그러므로 나는 장미꽃을 ‘안다’고 할 수 있다”. 그러나 이것은 GPT도 할 수 있습니다. 어떤 사람은 장미꽃을 직접 봤던 경험을 떠올리며 이렇게 얘기할 것입니다. “나는 장미꽃을 알고 있지”. 사람은 자신이 경험한 것에 대해서는 ‘잘 알고 있다’라는 믿음을 갖는 경향이 있습니다. 특히 색감, 향기, 소리 등 감각에 대한 기억이 생생하게 떠오르면 그 믿음은 더 강해지겠죠. 물론 그 생생한 경험만큼은 GPT가 아직 따라할 수 없는 영역일 것입니다.
그런데 지금 컴퓨터 앞에 앉아있는 여러분에게 ‘장미꽃’에 대한 경험은 단지 지나간 과거의 일일 뿐입니다. 지금 여러분에게 남아있는 것은, 뇌 속에 흩어져있는 장미꽃에 대한 여러 가지 이미지와 키워드 조각들입니다. “그래서 장미꽃이 뭔데?”라고 묻는다면, 여러분은 “음…잎이 빨간 색이고, 향기가 나고, 뾰족뾰족한 가시가 돋아있는 꽃이야”라며 장미로부터 연상되는 단어들을 나열하는 수밖에 없겠죠. 결국 연관된 여러 가지 이미지와 키워드를 연상할 수 있다는 것이 우리의 앎의 증거입니다. 그렇다면 컴퓨터 앞에 앉아있는 여러분의 앎과 GPT의 앎은 얼마나 큰 차이가 있을까요. 그리고 앞으로 감각 센서로 실물을 경험할 수 있는 인공지능이 나타난다면, 우리는 그보다 얼마나 더 ‘안다’고 말할 수 있을까요.
아래는 2023년 6월 9일 뉴스입니다~
(원문: 여기를 클릭하세요~)
AI, 이번엔 코딩 역사 바꿨다… 인간 한계 뛰어넘은 알고리즘 만들어
딥마인드 연구팀은 심층 강화 학습으로 훈련시킨 AI ‘알파데브(AlphaDev)’가 기존의 ‘정렬 알고리즘’을 개선한 성과를 7일(현지 시각) 국제학술지 ‘네이처’에 발표했다. 딥마인드 연구팀은 인간과의 바둑 대결에서 승리한 ‘알파고’를 개발하며 인간과 협업할 수 있는 범용 AI를 만들어 왔다. 연구를 이끈 대니얼 맨코위츠 박사는 “AI가 지난 수십 년 동안 과학자와 엔지니어가 연구했던 알고리즘을 능가했다”면서 “AI가 만든 알고리즘은 이미 클라우드 컴퓨팅, 온라인 쇼핑 등 산업 전반에서 활용되고 있다”라고 했다.
알파데브가 개선한 ‘정렬 알고리즘’은 여러 항목을 원하는 순서대로 정렬하는 일종의 순서도로 컴퓨터 알고리즘 동작의 기초가 된다. 인간이 설계한 정렬 알고리즘은 이미 10여 년 전에 최적화돼 더 이상 개선되기 힘든 것으로 알려져 왔다. 알파데브는 정렬 알고리즘을 개선해 기존 방식보다 1.7% 더 효율적이고 최대 70% 빠르게 바꿨다. 연구팀은 이 알고리즘을 누구나 활용할 수 있는 오픈 소스로 공개했고, 매일 ‘수조 번’ 사용되고 있다.
알파데브는 새로운 정렬 방식을 강화 학습을 통해 찾았다. 알파고가 바둑의 조합 가능한 모든 수를 학습해 새로운 수를 찾아낸 것과 같은 방식이다. 알파데브는 10의 120제곱에 달하는 경우의 수를 분석해 기존보다 더 효율적이고 빠른 알고리즘을 만들면 보상을 받도록 설계됐다. 그러자 알파데브는 인간이 비효율적이라 생각했던 방식을 파고들어 새로운 알고리즘 정렬을 이뤄냈다. 연구팀은 이러한 알파데브의 행동이 지난 2016년 이세돌과의 바둑 평가전에서 보여준 알파고의 행동과 유사하다고 분석했다. 인간의 직관으로는 실수라고 판단되는 행동이 결국 알파고 승리의 중요한 역할을 한 것과 같다.
AI는 앞으로도 인간의 전유물로 여겨졌던 영역에서 한계를 극복하며 성과를 낼 것으로 보인다. 지난 2020년 딥마인드가 개발한 ‘알파폴드2′는 단백질 구조 예측에 성공하며 인간이 지난 50여 년간 연구한 결과를 뛰어넘었다. 영화와 소설, 미술 등 예술로도 영역을 확장하고 있다. 맨코위츠 박사는 “AI가 문제의 기초부터 분석하는 게 아니라 마치 인간의 직관을 활용하는 것처럼 문제를 해결할 수 있게 하는 것이 목표”라고 밝혔다.
아래는 2023년 7월 17일 뉴스입니다~
(원문: 여기를 클릭하세요~)
생성형AI의 의학·과학 습격…’전문가’ 인간은 살아남을까
인공지능은 단순한 이해를 넘어 창조의 영역까지 넘보고 있다. 위키미디어 제공
경제협력개발기구(OECD)는 지난 11일 “일자리의 27%는 AI에 의해 대체될 것”이라며 “특히 의학, 법률, 경영 등 전문직군의 실업률이 높아질 것”이라고 경고하기도 했다. 과학자들은 AI가 신약 개발, 헬스케어 등 사회 필수 분야에 활발히 활용되면서 도움이 될 것으로 보는 동시에 인간을 대체하기엔 아직 한계가 있다는 내용을 담은 연구결과를 속속 내놓고 있다.
● 외과 수술부터 항감염제 개발, 심리 치료까지…의료계 전반에서 활용되는 AI
국제학술지 ‘사이언스’는 14일(현지시간) ‘기계 지능 세계(A Machine-Intelligent World)’라는 제목의 ‘특집(스페셜 이슈)’을 통해 최신 AI기술 전반을 조망하는 9편의 논문을 무더기로 공개했다. 이 중 일부는 의료계 전반에서의 AI 활용이 긍정적인 영향을 주고 있다는 분석을 담고 있다.
대표적인 게 셉티뮤 살쿠딘 캐나다 브리티시컬럼비아대 교수와 미셸 윕 미국 샌디에이고캘리포니아대(UC샌디에이고) 기계컴퓨터공학 박사가 발표한 ‘AI와 의료용 로봇의 만남’ 논평이다.이들은 “질병 진단, 재활 치료, 수술 등 전반적인 의료 분야에서 AI를 활용할 수 있다”라고 말했다. 예컨대 수술용 AI로봇은 집도의가 손떨림으로 인한 조직 손상없이 복잡한 수술 과정을 마칠 수 있게끔 원격 기기 조정을 통해 도와준다는 것이다. 의료 AI를 도입하면 더 안전하고 효율적인 치료가 가능해진다는 설명이다.
항감염제 등 약물 개발에도 활용할 수 있다. 제임스 콜 매사추세츠공대(MIT) 의공학과 교수, 펠릭스 옹 미국 브로드연구소 박사 등이 주도한 연구진은 ‘전염병 대항전에서의 인공지능 활용’이라는 제목의 사이언스 리뷰을 통해 “AI의 기계학습 알고리즘을 활용하면 병원성 박테리아를 사멸할 항생제를 개발할 수 있다”라고 밝혔다. AI가 방대한 데이터를 분석해 저분자, 단백질 등의 구조를 파악한 뒤 이를 모델링하면 그 정보를 약물 개발에 활용할 수 있다는 것이다.
AI가 심리 치료에 도움이 된다는 분석도 나온다. 미국 듀크대 연구팀은 “설문조사에 참여한 유럽·북미 심리학자 307명 중 69%가 AI가 인간의 고립감을 해소해주며 친구가 되어줄 수 있다는 데 동의했다”는 연구결과를 12일 학술지 ‘사이언스 로보틱스’에 공개했다.
● 과학자들, AI 성능 뛰어나지만… “인간만이 가진 능력 여전히 필요”
일각에서는 AI 성능이 뛰어나지면 인간만이 지닌 능력에는 아직 못미치기 때문에 인간의 능력이 여전히 필요하다는 연구결과도 나오고 있다. 카란 싱갈, 세쿠페 아지지, 타오 투 등 구글 소속 연구진은 지난 4월부터 차세대 거대언어모델(LLM)인 ‘팜2(PaLM2)’를 적용한 의료용 AI ‘메드-팜2(Med-PalM2)’의 성능을 테스트한 결과를 지난 11일(현지시간) 학술지 ‘네이처’에 논문으로 공개했다. 메드-팜2는 챗봇 형태의 AI로, 환자가 자신의 상태를 챗봇에 입력하면 입력된 문장을 분석해 병명을 진단하고 의학적 소견을 내놓는다.
연구진은 테스트를 위해 ‘멀티메드QA(MultiMedQA)’라는 데이터 세트를 제작했다. 실제 미국 의사면허시험에 출제되는 의학 지식·연구관련 문항과 유사한 문항 6개에 인터넷에서 검색을 통해 찾을 수 있는 의학관련 질문 3173개를 결합한 데이터다. 정확한 평가를 위해 AI가 내놓은 답변의 이해력, 추론력, 편향성 등은 사람이 직접 점수를 매기도록 했다.
그 결과 메드-팜2은 구글이 작년에 개발한 1세대 모델 AI에 비해 17% 더 높은 정답률을 보였다. 하지만 다지선다형 문제에는 강했지만, 장문형 답을 쓰는 능력은 부족한 것으로 판단됐다. AI의 정답률은 인간 임상의보다 전체적으로 낮았다.
매튜 드캠프 미국 콜로라도약대 부교수는 14일(현지시간) 사이언스에 발표한 논평 ‘보건 영역에서의 AI 편견 완화’를 통해 “AI가 의료계나 공중보건 영역에서 성공할지는 미지수”라고 밝혔다. 그는 “AI는 환자의 인종, 성별 등에 따른 변수를 의학적 지식만으로는 판단할 수 없다”며 “이는 학습 데이터 자체가 편향성을 띠고 있을 수 있기 때문”이라고 지적했다.