두 인공지능이 서로 대화를 합니다

구두 또는 서면 지시에만 기반하여 새로운 작업을 수행하고 다른 사람들에게 설명하여 그들이 그것을 재현할 수 있도록 하는 것은 여전히 인공 지능에 저항하는 인간 의사 소통의 초석입니다. 제네바 대학 (UNIGE)의 한 팀은 이러한 인지 능력이 가능한 인공 신경망을 모델링하는 데 성공했습니다. 일련의 기본 작업을 학습하고 수행한 후, 이 인공 지능은 그것들에 대한 언어적 설명을 “자매” 인공 지능에게 제공할 수 있었고, 그들은 차례로 그것들을 수행했습니다. 특히 로봇 공학에 대한 이러한 유망한 결과는 Nature Neuroscience에 발표됩니다.


구두 또는 서면 지시만으로 사전 교육 없이 새로운 작업을 수행하는 것은 인간의 고유한 능력입니다.

게다가, 일단 우리가 그 과제를 학습하고 나면, 우리는 그것을 다른 사람이 그것을 재생산할 수 있도록 기술할 수 있습니다. 이 이중 능력은 새로운 과제를 학습하기 위해, 그것을 그들의 동족에게 전달할 수 없이, 긍정적이거나 부정적인 강화 신호를 동반하는 수많은 시도를 필요로 하는 다른 종들과 우리를 구별합니다.

인공지능(AI)의 하위 분야인 자연어 처리는 음성 또는 텍스트 데이터를 이해하고 반응하는 기계로 이러한 인간의 능력을 재현하려고 합니다.

이 기술은 우리의 생물학적 뉴런과 뇌에서 서로 전기 신호를 전달하는 방식에서 영감을 받은 인공 신경망을 기반으로 합니다.

그러나 위에서 설명한 인지적 위업을 달성할 수 있는 신경 계산은 여전히 잘 알려져 있지 않습니다.

“현재 AI를 활용한 대화형 에이전트는 언어 정보를 통합하여 텍스트나 이미지를 생성할 수 있습니다.

하지만, 우리가 아는 한, 그들은 아직 말이나 글로 된 지시를 감각 운동으로 번역할 수 없고, 그것을 재현할 수 있도록 다른 인공지능에게 덜 설명할 수도 있습니다,” 라고 UNIGE 의학부 기초 신경과학과의 알렉산드르 푸젯 전임 교수가 설명합니다.


모범적인 두뇌

연구원과 그의 팀은 비록 사전 훈련을 받았지만 이 이중 용량을 가진 인공 신경 모델을 개발하는 데 성공했습니다.

“우리는 3억 개의 뉴런을 가지고 있고 언어를 이해하도록 미리 훈련된 인공 뉴런의 기존 모델인 S-Bert로 시작했습니다.

우리는 그것을 수천 개의 뉴런으로 구성된 또 다른 단순한 네트워크에 ‘연결’했습니다”라고 UNIGE 의학부 기초신경과학과 박사과정 학생이자 이 연구의 제1저자인 Ridar Riverland는 설명합니다.

실험의 첫 번째 단계에서 신경과학자들은 언어를 인식하고 해석할 수 있는 뇌의 일부인 베르니케의 영역을 시뮬레이션하도록 이 네트워크를 훈련시켰습니다.

두 번째 단계에서 네트워크는 베르니케의 영역의 영향으로 단어를 생성하고 발화하는 역할을 담당하는 브로카의 영역을 재현하도록 훈련되었습니다.

모든 과정은 기존 노트북 컴퓨터에서 수행되었습니다.

그런 다음 영어로 작성된 지침이 AI로 전송되었습니다.

예를 들어, 자극이 감지되는 위치(왼쪽 또는 오른쪽)를 가리키거나, 자극의 반대 방향으로 반응하거나, 대조적으로 약간의 차이가 있는 두 시각적 자극 사이에서 더 밝은 자극을 보여줍니다.

그런 다음 과학자들은 이동 의도 또는 이 경우를 가리키는 것을 시뮬레이션한 모델의 결과를 평가했습니다.

“이러한 작업이 학습된 후 네트워크는 두 번째 네트워크(첫 번째 네트워크의 복사본)에 이 작업을 설명하여 복제할 수 있었습니다.

우리가 아는 한, 두 인공지능이 순수하게 언어적인 방법으로 서로 대화할 수 있었던 것은 이번이 처음입니다,” 라고 연구를 이끈 Alexandre Pouget가 말했습니다.


미래의 휴머노이드를 위해

이 모델은 언어와 행동 사이의 상호작용을 이해하는 데 새로운 지평을 열었습니다. 기계들이 서로 대화할 수 있도록 하는 기술의 개발이 핵심 문제인 로봇 공학 분야에서 특히 유망합니다. “우리가 개발한 네트워크는 매우 작습니다. 이를 바탕으로 우리를 이해할 뿐만 아니라 서로를 이해할 수 있는 휴머노이드 로봇으로 통합될 훨씬 더 복잡한 네트워크를 개발하는 데 방해가 되는 것은 없습니다.”라고 두 연구원은 결론을 내립니다.

Leave a Comment