연구자들간에 ChatGPT 및 기타 AI 도구 사용이 일상화가 된 듯 합니다. 연구자, 저자, 저널 편집자, 출판사, 연구 학회 리더 및 기타 이해관계자들이 자신의 견해를 표명하면서, 학술 논문, 특히 연구 논문 저술 시 AI 활용에 관한 새로운 논쟁이 거의 매달 가열되고 있습니다.
[정확히 말해서, 이번 기사에서 언급하는 "AI"란 생성형 AI, 즉, 인간이 생성 가능한 것과 매우 흡사한 오디오, 시각적 또는 문자 출력을 생성하는 도구를 의미합니다.]
워터 메이어(Watermeyer)와 그 외 연구자가 영국을 기반으로 하는 연구자들을 대상으로 실시한 2023년 설문 조사의 응답자 가운데 70% 이상이 AI 도구가 논문 작업 방식을 변화시킬 것이라 응답했고, 80% 이상이 향후 AI가 더 많이 활용될 것이라 전망하였습니다. 2023년 12월, 플로리다 주립대학교의 데이비드 매슬라크(David Maslach) 부교수는 하버드 비즈니스 출판부(Harvard Business Publishing)의 블로그 게시물에서 "AI가 특정 작업에는 탁월하나, 교육자들의 동기를 부여하는 열정과 개성을 복제할 수는 없다.”며 과학자들에게 경고했고, 생성형 AI의 연구 '과급' 가능성을 주장하였습니다. 그럼에도 불구하고, AI는 우리의 천재성을 자극하는데 도움이 될 수 있습니다. 네이처(Nature)지는"생성형 AI가 학술에 제대로 도움을 주는가?"라고 문자 그대로 반문하는 교신 기사를 2024년 1월에 발표했습니다.
옥스퍼드 대학교 출판부가 2024년 5월 실시한 설문조사 결과에 따르면 2,000명의 연구자 표본 가운데 2/3 이상이 AI 사용의 이점을 경험했으며, 대략 90%는 AI 사용 지침을 검색한다고 응답하였습니다.
오늘 기사를 통해 학술 저술에서 AI 사용법과 연구 논문 작성 시 LLM을 책임감 있게 활용하는 방안을 살펴보겠습니다. 다음은 연구자가 해야 할 일과 해서는 안되는 일입니다. 모든 연구자들이 준수해야 하는 사항은 다음과 같습니다.
학술 작문에 AI 사용 가능 여부를 확인하세요.
수많은 저널과 대학교에서는 허용되는 생성형 AI 콘텐츠 종류에 대한 정책을 설명하였습니다. 가령, 노스캐롤라이나 대학교 채플힐 캠퍼스는 모교 학생들에게 "지도 교수가 생성형 AI 도구의 사용을 승인하는 경우, 이 도구가 연구자의 사고나 저술을 대체하는 게 아니라 사고와 저술에 도움을 줄 수 있다고 가정할 가능성이 높다"고 말합니다. 생성형 AI를 브레인스토밍, 개요 생성, 장문 텍스트 요약, 언어 개선에 사용하도록 권장합니다. 사이언스(Science)지와 같은 저널은 AI 사용 및 사용 공개에 관한 상세 지침을 제시하며, 저자들에게 “AI 도구를 부적절하게 남용할 경우, 에디터가 원고를 더 이상 진행하지 않을 수 있다."라고 경고합니다.
연구자님의 연구 보고서나 논문에 생성형 AI 도구를 사용하기 전에 실제 허용 가능한 여부를 확인하시기 바랍니다.
학술 작문에 적합한 AI 도구를 선정하세요.
모든 분야를 장악하는 유일한 LLM(적어도 비과학계 청중들에게)은 ChatGPT이며, 이는 학술적 저술에는 부적합하다고 반복적으로 입증되었습니다. GPT-3 출시 6개월 만인 2023년 7월 초, 네이처(Nature)지는 팟캐스트에서 이 도구가 불과 한 시간 만에 연구자의 논문 저술을 가능케 할 수는 있지만, 품질에 명백한 문제가 있음을 언급하였습니다. 카세나(Kacena) 및 그 외 연구자(2024)는 ChatGPT 4.0가 최대 70%가 가짜 논문을 참고문헌으로 인용한 논물을 생성한다고 확인하였습니다.
이는 연구자로서 여러분에게 무엇을 의미합니까? AI를 사용하여 학술 저술의 품질을 개선하시려면, 실제 논문 저술에 적합한 도구를 선별하여야 합니다. 예컨대, 페이퍼팔(Paperpal)은 단지 인터 넷상의 논문이 아닌 수백만 개의 학술 논문을 학습/훈련받았으며, 연구자님의 원고가 저널에 적합한지 여부를 평가하는 30개 이상의 언어 기술 검사에 대한 무료 요약 보고서를 제공합니다.
ChatGPT와 같은 주류 LLM은 저널과 대학교가 기대하는 학술적 저술 표준에 반드시 충족할 수는 없습니다. AI 도구를 신중하게 선별하셔야 합니다.
학술 저술 시 AI 결과물을 신중하게 검토하세요.
어떤 AI 도구도 인간 저자처럼 출력의 정확성과 무결성에 책임질 수 없습니다. 책임 있는 과학자로서 여러분은 연구 논문에 사용하는 AI 생성 텍스트를 검토하고, 동의하지 않는 AI 생성 콘텐츠를 수정하셔야 합니다.
AI 도구는 훌륭하지만, 비판적 사고 능력과 도메인 지식을 대체할 수는 없습니다. 학술적 저술을 위한 AI 도구를 수석 저자가 아닌 편리한 보조자처럼 취급하세요!
AI가 여러분보다 학술 저술 능력이 월등하다고 속단하지 마세요.
AI 기반 도구는 영어가 모국어가 아니거나 학술 논문에 적합한 어조와 스타일을 취하고자 노력하는 초보 연구자일 때 유용합니다. 또는 시간이 부족하거나 저널 에디터에게 발송하는 이메일과 같은 일상적 학술 커뮤니케이션에 도움이 필요할 때 유용합니다. 그러나, AI는 해당 분야에 전문 지식이나 비판적 사고 능력을 대체할 수는 없습니다. 그리고 최신 지식이 아닐 수도 있습니다. 가령, GPT-4o의 "지식 컷오프 데이”는 2021년 9월이었습니다. 즉, 이 도구는 그 컷오프 데이 이후에 출판된 연구 논문을 포함하여 어떤 사건도 인식하지 못합니다.
학술 저술에 AI 생성 이미지를 사용하지 않습니다.
세포 발달 및 생물학 분야의 선구적 연구자가 기괴한 생쥐 이미지를 포함한 논문 으로 인해 조롱받았던 일화를 기억하시나요? 주류 언론 조차도 들썩이게 했던 일화입니다. 논문은 불명예스러운 쥐 이미지 외에도 모든 과학자들이 터무니없어하는 또 다른 AI 생성 이미지를 포함하고 있습니다. 즉, 과학적 절차나 경로를 설명한다고 주장하는 이미지가 오히려 스프링클을 얹은 도넛이나 환각적 토핑을 얹은 피자와 비슷해 보였습니다.
AI가 생성한 이미지 결함은 과학자들에게만 알려진 사실이 아니며, 일반 독자들조차도 "다인종의 나치 군인" 또는 도저히 단독으로 존재 불가능한 바나나를 거론할 정도입니다. 디 애틀랜틱(The Atlantic)지는 이 문제에 대해 "생성형 AI는 논문 저자가 뭐라고 하든지 간에 현실을 정직하게 반영하도록 설계되지는 않다."고 요약합니다.
2024년 7월자로 엘스비어(Elsevier) 및 테일러 & 프란시스(Tayloer & Francis) 출판사는 AI 생성 이미지(AI 이미지 생성 관련 일부 현행 연구 사례 제외) 사용을 전면 금지했습니다. AI 사용 금지가 더 현명한 경우는 다음과 같습니다. 필요시, 기존 방식으로 이미지를 생성하여, 평판 좋은 학술 이미지 작성 서비스를 이용하시기 바랍니다.
AI를 학술 논문의 저자로 등재하지 마세요.
2023년 5월부로 국제 의학 학술지 편집인 위원회(International Committee of Medical Journal Editors)는 ChatGPT 또는 AI 도구를 과학 논문의 저자로 등재하는 것을 강력히 금지했습니다. 그 이유는 다음과 같습니다. 이 도구는 저자의 기본 원칙 중 하나, 즉 과학 논문 내용의 정확성과 무결성에 대한 책임 이행 권한이 없습니다. 이러한 입장은 비엠제이(BMJ)부터 아시아 생태 환경 저널(Asian Journal of Environment & Ecology)에 이르기까지 수많은 저널에서 채택되었습니다.