챗GPT는 논문의 저자로 인정 받을 수 있을까?
상태바
챗GPT는 논문의 저자로 인정 받을 수 있을까?
  • 정 현 기자
  • 승인 2023.02.14 09:46
  • 댓글 0
이 기사를 공유합니다

- 국가생명공학정책연구센터, 'ChatGPT와 같은 AI챗봇이 과학기술에 끼치는 영향' 자료문건 공개
- 네이처(Nature), 학술논문 작성 시 AI 서비스 활용에 대한 2가지 가이드라인 제시
그래픽=위즈뉴스 편집팀
그래픽=위즈뉴스 편집팀

[위즈뉴스] '챗GTP' 열풍이 학술논문 분야까지 번지고 있다.

챗GPT는 미국의 오픈AI가 개발한 인공지능(AI) 챗봇으로 사용자가 어떤 종류의 질문을 하든 수초 내에 그에 따른 전문적인 답변을 제공하는 AI 서비스다. 챗GPT는 지난해 연말 서비스가 출시된 이후 2개월 만에 월간 활성 사용자 수(MAU) 1억명을 달성하는 등 전 세계적으로 뜨거운 반응을 불러 일으키고 있다.

MAU는 월 단위로 한 번이라도 접속한 사람의 수를 말하며, 틱톡의 경우 1억 MAU에 도달하는 데 9개월, 인스타그램은 30개월이 걸렸었다. 

최근 챗GPT의 인기가 치솟으면서 학술 영역에서는 챗GPT의 인공지능 기능인 LLM(대규모 언어 모델)을 활용해 논문을 작성하거나 심지어 챗GPT가 논문의 저자로 등장하는 사례가 나타나고 있으며, 글로벌 학계에서는 이런 현상에 대한 대응책 마련이 시급하다는 목소리가 높아가고 있다.

이런 가운데 국가생명공학정책연구센터는 최근 'BioINwatch' 서비스를 통해 'ChatGPT와 같은 AI 챗봇이 과학기술에 끼치는 영향'이라는 자료 문건을 공개했다. 이 문건은 최근 챗GPT와 관련한 주요 쟁점과 학계의 움직임, 네이처(Nature) 등 해외 저널의 AI 서비스 활용 가이드라인 마련 등의 내용을 담고 있다.

문건이 제시한 학술계의 챗GPT 관련 이슈들을 몇 개의 문답으로 풀어 본다. 

1.  챗GPT(ChatGPT) 출시 이후 학계의 분위기는 어떤가?

인공지능(AI)의 언어 생성 능력이 고도로 발전하면서 사람이 쓴 글과 구별하기가 점점 더 어려워지는 상황이다. 특히, 최근 출시된 챗GPT 등 AI도구가 투명한 과학을 위협할 수 있어 AI 챗봇 사용에 대한 가이드라인 마련이 필요하다는 인식이 확산되고 있다. 

2. 학술지의 대응 움직임도 나타나고 있나?

그렇다. 지난해 네이처(Nature)는 일부 과학자들이 생각을 정리하고, 코드 작성을 돕고, 연구문헌을 요약하기 위해 이미 연구조교로 챗봇을 사용하고 있다는 보고서를 싣기도 했다. (Nature, Tools such as ChatGPT threaten transparent science; here are our ground rules for their use, 2023.1.24)

3. AI 도구 중에서도 특히 '챗GPT'에 관심이 쏠리는 이유는 무엇인가?

챗GPT(ChatGPT)는 미국의 오픈AI가 지난해 11월에 출시한 AI 챗봇으로 LLM(대규모 언어 모델, large language models)이라는 기능을 대중에게 제공하고 있다. 챗GPT는 기술 전문 지식이 없는 사람들도 쉽게 접근할 수 있도록 제작되어 있으며, 그 결과 챗GPT를 활용한 쓰기 실험이 폭발적으로 증가하고 있는 상황이다.

4. 챗GPT가 쓴 논문을 게재하는 학술지도 등장했나?

그렇다. 최소 4개의 출판된 논문에서 이미 챗GPT를 공식적인 저자로 인정했다. 그중 하나는 지난해 12월 국제학술지 '메드아카이브'(medRxiv)에 실린 의학 교육용 도구 사용에 관한 논문(Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models, 2022.12.19.)으로, 챗GPT는 이 논문의 저자 12명 중에 하나로 이름을 올렸다.

국제학술지 'medRxiv'에 실린 해당 논문

5. 챗GPT의 LLM(대규모 언어 모델) 기능에 대한 학계의 우려는 어떤 것인가?

학술연구 커뮤니티는 학생들과 연구자들이 LLM으로 작성된 텍스트를 자신의 것으로 속이거나 불완전한 문헌 검토 등 LLM이 신뢰할 수 없는 작업을 수행할 수 있다는 점을 우려하고 있다.

이와 관련해 네이처(Nature) 산하 모든 저널은 두 가지 원칙을 공식화하여 저자 가이드에 추가했다. 

첫째, LLM 도구는 연구 논문의 저자로 인정되지 않는다. 저자의 모든 속성에는 작업에 대한 책임이 수반되어야 하는데 AI도구는 책임을 질 수 없기 때문이다.

둘째, LLM 도구를 사용하는 연구자는 방법 영역에 이를 문서화해야 한다. 문서 내에 이러한 영역이 없는 경우에는 소개 또는 다른 적절한 영역에 LLM 사용을 명시해야 한다. 다른 과학논문 출판사들도 비슷한 입장일 것으로 예상된다.

6. 현재 챗GPT로 작성한 문서를 찾아낼 수 있는 기술은 어느 단계까지 와 있나?

Nature 출판사인 Springer Nature는 현재 LLM에서 생성된 문서를 찾아낼 수 있는 기술을 개발 중이다. 챗GPT는 텍스트 생성 및 문서 작성을 위한 출처를 인용할 수 한계를 갖고 있다.

그러나 이러한 한계는 조만간 해결될 수 있을 것으로 예상된다. 예를들어 챗봇을 출처 인용 도구에 연결하는 실험이 이미 진행 중이며, 다른 실험에서는 전문 과학 텍스트에 대해 챗봇을 훈련 중이다.

챗GPT의 LLM 도구에 의해 작성된 문서에 어떤 식으로든 워터마크를 추가할 수 있기를 기대하나, 이것 또한 기술적으로 완벽하지 않을 수 있다.

7. 요즘처럼 인공지능 기술이 비약적으로 발전하고 있는 시대에 연구자들은 어떤 자세를 가져야 하나?

과학은 어떤 기술이 유행했는 지에 관계없이 연구방법과 결과에 대해 공개적이고 투명해야 한다.
특히, 챗GPT와 같은 AI 챗봇이 과학기술계에 끼치는 영향이 커지는 시기에 연구자는 자신이나 동료가 불투명한 방식으로 소프트웨어를 사용할 경우, 지식 생성 프로세스가 지금까지 과학이 의존해왔던 투명성과 신뢰성이 어떻게 유지될 수 있을 지 자문을 해 봐야 한다.

왜냐하면, 궁극적으로 과학이 발전하기 위해서는 연구방법의 투명성과 저자의 진실성이 기초가 되어야 하기 때문이다.

한편, 국가생명공학정책연구센터는 이번 자료를 국내외 다양한 분석 보고서 등을 참고하여 작성했으며 해당 기관의 공식 견해는 아니라고 밝혔다. 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사