[요약]미국 메사추세츠공과대(MIT)와 과학자들은 인공지능(AI)의 한 형태인 신경망을 개발해 과학 논문을 읽고 한두 문장의 평이한 요약을 할 수 있도록 했다. (2019.04)
과학 작가는 전문 기술 용어로 가득 찬 국제학술지(저널) 논문을 읽고 과학적 배경이 없는 독자가 이해할 수 있는 언어로 내용을 풀어내는 직업이다. 이제 MIT를 비롯한 공동 연구팀은 제한된 범위 안에서 이런 작업을 해내는 AI 신경망을 개발했다. 여러 가지 제한적인 조건에도 불구하고 이런 AI는 편집자, 작가 및 과학자들에 수많은 논문을 자동으로 스캔해 원하는 것을 찾아내는데 유용하게 쓸 수 있다. 또 머신러닝 및 음성 인식을 포함한 다양한 분야에서 응용이 가능할 것으로 기대를 모은다.
이 연구는 MIT 대학원생 루먼 단고프스키와 리징의 주도로 전산언어학협회 저널에 게재됐다. 당초 이 작업은 AI 활용과 관련 없이 물리학 난제 해결을 위한 프로젝트에서 비롯됐다. 하지만 연구원들은 연구 과정에서 자연어 처리를 비롯한 다른 어려운 계산 문제를 해결하는데 새로운 기술을 활용할 수 있다는 점을 발견했다.
이 접근법은 다양한 종류의 작업에서 유용할 수는 있지만 모든 분야에 쓸 수 있는 것은 아니다. 연구팀 관계자는 “주어진 AI알고리즘을 향상시키기 위해 물리학의 통찰력을 사용할 수 있는 경우가 있다”고 말했다. 신경망은 일반적으로 인간이 특정한 새로운 것을 배우는 방법을 모방한다. 컴퓨터는 여러 가지 다른 사례를 검토하고, 핵심 원리가 무엇인지 패턴을 학습한다. 이런 시스템은 사진에 찍힌 물체를 식별하는 것과 같은 곳에 널리 사용돼왔다.
그러나 신경망은 일반적으로 연구 논문을 해석하는 것처럼 긴 데이터 열의 정보를 상호 연관하는데 어려움이 있다. 이를 해결하기 위해 연구팀은 장단기메모리(LSTM)와 반복 구문 단위(GRU)로 알려진 기술을 포함해 다양한 기법을 사용해 봤지만 실제로 자연어 처리에는 여전히 부족한 것으로 나타났다.
팀은 대안을 생각해냈다. 대체 시스템은 대부분의 신경망이 다차원 공간에서 회전하는 벡터를 기반으로 하는 것처럼 행렬의 곱셈을 기반으로 하지 않는다. 대신 ‘메모리 회전 단위(RUM)라는 개념을 만들어냈다. 본질적으로 시스템은 텍스트의 각 단어를 다차원 공간의 벡터(특정 방향을 가리키는 특정 길이의 선)로 나타낸다. 이후 수천 개의 차원을 가지는 이론적 공간에서 계산이 이뤄진다. 연구팀 관계자는 “RUM은 신경망이 두 가지 일을 잘하도록 도와준다”면서 “그것은 더 잘 기억하도록 돕고, 정확하게 정보를 기억할 수 있게 해준다”고 말했다.
당초 RUM 시스템은 복잡한 신소재에서 빛의 거동과 같은 물리학 문제를 돕기 위해 개발됐다. 하지만 연구팀은 이를 자연어 처리에 활용해보기로 했다. 예를 들면 어떤 논문을 쓸지 모색하는데 도움을 줄 수 있다는 것이다. 첫 단계로 기사 요약을 적용하지 꽤 잘 작동하는 것처럼 보였다.
연구팀은 기존의 LSTM 기반 신경망과 RUM 기반 시스템을 통해 동일한 연구 논문을 요약해봤다. 결과물은 극단적으로 엇갈렸다. LSTM 시스템은 반복적이고 기술적인 요약을 내놓았다. 반면 RUM 시스템은 훨씬 더 읽기 쉬운 글을 만들었고, 불필요한 반복 구문을 포함하지 않았다. 연구팀은 RUM 기반 시스템을 확장해 초록뿐만 아니라 전체 연구 논문을 통해 내용을 요약해 읽을 수 있도록 했다.
이 연구에 관여하지 않은 영국 AI 회사인 딥마인드의 연구 과학자는 “이 논문이 다양한 문제를 해결했다고 생각하지는 않지만 질의 응답, 텍스트 요약과 같은 과제에 대해 유망한 결과를 보여준다”고 말했다. 이 연구는 육군 연구소, 국립과학재단 등의 지원을 받았다.
(원문: 여기를 클릭하세요~)