HyperAI초신경

과학기술부가 나서요! 연구자를 위한 AIGC 사용 설명서가 출시되었으며 학계에서는 AI 총잡이에 대한 경계를 강화하기 시작했습니다.

일 년 전
정보
zhaorui
特色图像

과학기술부 감독부문은 인공지능, 주요 성과 발표 등 사회에 큰 관심을 끄는 중요 이슈에 대해 명확한 경계선을 설정한 '책임 있는 연구 행위 지침(2023)'을 발표했습니다.

실험 데이터 조작, 실험 이미지 조작, 논문 서명 부적정, 교과서 표절 등 1월 16일 오후, 화중농업대학 학생 11명이 황교수가 학업 부정행위를 저질렀다며 125쪽 분량의 보고서를 제출했다. 한동안 여론은 빠르게 들끓었고, "학문적 순수성을 지키기 위해 자신의 미래를 걸고 도박을 한다"와 "모든 사람이 학문적 사기의 희생자다"와 같은 관련 내용이 주요 플랫폼에서 격렬한 토론을 불러일으켰습니다.

일부 네티즌들은 이를 알츠하이머병에 관한 이전의 사기 논문과 연관시켰습니다. 2,300회 이상 인용된 이 네이처 논문은 16년 동안 전 세계 알츠하이머병 연구를 오도했습니다.

진실을 추구하는 데만 집중한다면, 당신의 예술은 완벽하지 않을 것입니다. 지난 100년 동안 학문적 성실성에 대한 정신과 인류에게 이롭다는 숭고한 신념은 학생들이 과학 연구의 길에서 계속 전진할 수 있도록 이끄는 빛이 되어 왔습니다. 그러나 이제는 명예와 부에 대한 유혹이 점점 더 커져서, 반복적인 금지에도 불구하고 막을 수 없는 학문적 사기가 생겨나고 있습니다. 특히 AI나 대형 모델과 같은 기술의 급속한 발전으로 인해 새로운 기술이 과학 연구 부정행위의 "공범"이 되고 있습니다. 이는 연구를 고집하는 연구자들에게 불공평할 뿐만 아니라, 잘못된 연구 데이터는 심각한 결과를 초래할 수도 있습니다.

따라서 학문적 사기를 엄격하게 조사하는 것과 동시에, 과학 연구에 AI와 같은 기술을 적용하는 것을 규제하는 것도 매우 중요합니다.

명확한 경계를 설정하고 규정에 따라 합리적으로 생성 인공지능을 활용합니다.

학술 논문 사기는 오랜 역사를 가지고 있습니다. 표절이나 데이터 조작과 같은 전통적인 방법 외에도 작가에게 돈을 지불하고, "종이 공장"을 이용해 글을 쓰게 하고, 논문을 조작하는 것도 흔한 일입니다.

오늘날 ChatGPT( )로 대표되는 생성 인공지능 기술은AIGC)가 갑자기 나타나 사람들에게 논문을 쓰는 데 새로운 도움을 주었습니다. 주제 선별부터 원고 다듬기, 통계 분석부터 차트 제작까지... 이 소프트웨어의 강력한 기능은 학술 논문 작성 과정의 거의 모든 측면을 포괄하며, 과학 연구자들이 문헌 검색, 데이터 처리, 번역 다듬기 및 기타 작업을 신속하게 완료하는 데 실제로 도움이 될 수 있습니다.

하지만 모든 것에는 양면이 있습니다. 연구자들이 AIGC가 생성한 텍스트를 자신들의 창작물로 여긴다면, 그것은 무의미한 "학문적 거품"을 만들어낼 뿐입니다. 또한, 신뢰할 수 없는 연구 결과를 도출하기 위해 AIGC에 지나치게 의존하면 과학 연구의 신뢰성이 크게 떨어질 것입니다.

2023년 12월 21일과학기술부 감독부는 2023년 책임연구행위지침(이하 "2023년 책임연구행위지침")을 발표했다.가이드라인》),인공지능이나 주요 성과 공개 등 대중의 관심을 끄는 주요 이슈에 대해서는 명확한 한계선이 그어져 있습니다.

연구 주제 선정 및 실행 부분에서 "지침"은 과학 연구자가 제출하는 연구 프로젝트 신청 자료는 진실하고 정확하며 객관적이어야 한다고 지적합니다. 동일하거나 유사한 연구 내용을 반복하여 제출하는 것은 허용되지 않으며, 본인의 동의 없이 타인을 연구팀의 구성원으로 등록해서는 안 됩니다. 타인을 대신하여 지원서 자료를 표절하거나, 사고팔거나, 작성하는 것은 허용되지 않습니다.생성적 인공지능을 사용하여 지원서 자료를 직접 생성할 수는 없습니다.

우리는 관련 법률, 규정 및 학술 규범을 준수해야 하며, 생성적 인공지능을 사용하여 규정에 따라 텍스트, 데이터 또는 학술 이미지를 합리적으로 처리하여 데이터의 위조 및 변조와 같은 위험을 방지해야 합니다.

문헌 인용과 관련하여 "지침"에서는 특히 사실과 의견과 같은 핵심 내용이 포함된 생성적 인공지능을 사용하여 생성된 콘텐츠는 명확하게 표시되어야 하며 생성 과정을 설명하여 진위성과 정확성을 보장하고 타인의 지적 재산권을 존중해야 한다고 명확히 규정하고 있습니다. 다른 저자가 AI가 생성했다고 표시한 내용은 일반적으로 원본 문서로 인용해서는 안 되며, 인용해야 하는 경우에는 그 사실을 명시해야 합니다.생성 AI가 생성한 검증되지 않은 참조는 직접 사용할 수 없습니다.

"지침"은 연구 구현, 데이터 관리, 결과의 저자 및 출판, 문헌 인용의 관점에서 생성적 AI의 합리적 사용에 대한 경계를 명확히 합니다. 이러한 원칙은 과학 연구의 신뢰성과 윤리 원칙을 보호하는 데 매우 중요하며, 생성적 AI와 관련 기술의 무책임한 사용을 방지하는 데 도움이 됩니다.

국내외 유명 학술지, AI 논문 규제 강화

학술논문 사기는 전 세계적인 문제입니다. 생성적 AI의 등장으로 사기의 문턱이 어느 정도 낮아졌습니다. ChatGPT와 같은 챗봇이 "진지하게 거짓말을 하고 정당화할 수 있는" 능력은 이런 사람들에게 편의를 제공했습니다. 그러나 AIGC 활용의 경계가 점차 명확해짐에 따라, 법적 규제를 명확히 하는 것 외에도 국내외 학술기관에서 점차 합의에 도달하여 AI 활용을 직시하고 규제하기 시작했습니다.

국내의 많은 학술지에서는 기고자들이 논문 작성 과정에서 AI를 사용하는 다양한 방식을 제한한다는 성명을 발표했습니다. "Journal of Jinan University", "Journal of Documentation and Data", "Journal of China Science and Technology", "Think Tank Theory and Practice", "Library and Information Work"와 같은 저널은 모두 다음과 같은 성명을 발표했습니다.논문의 주요 내용이 AI 도구를 사용하여 생성된 경우, 발견 시 학문적 부정행위로 처리됩니다.

해외 학술지들도 논문 작성에 AI를 적용하는 것을 규제하기 시작했습니다. 불완전한 통계에 따르면 Nature, Cell, The Lancet, 자마미국 의학 협회 저널(Journal of the American Medical Association)과 같은 최고 저널들은 다음과 같은 성명을 발표했습니다.인공지능은 저자로 인정받을 수 없으며, AI를 활용하는 연구자는 원고에 이를 표시해야 합니다.

AI를 이용해 AI를 물리치고 신문의 '총잡이'를 찾아내다

AI의 좋은 발전을 촉진하기 위해서는 효과적인 기술적 수단을 활용해야 합니다. 현재 기술 수준에서는 AI가 생성한 논문이 원본 논문과 형식이 유사하며, 기존의 텍스트 유사성 비교 도구로는 이를 정확하게 감지하지 못할 수도 있다는 점에 유의해야 합니다. 따라서 국내외 연구자들은 AIGC에 특화된 탐지 도구의 개발을 모색하고 있습니다.

"AI 생성 콘텐츠 식별자의 핵심 아이디어는 먼저 실제 콘텐츠와 AI 생성 콘텐츠를 포함하는 교육 데이터 세트를 구축한 다음, 이 두 유형의 콘텐츠를 구별하도록 분류기를 교육하는 것입니다."라고 MILA 연구소의 유명 중국 학자인 탕젠이 언론과의 인터뷰에서 설명했습니다.

구체적으로, AI 언어 모델은 한 번에 한 단어씩 예측하고 생성하는 방식으로 작동합니다. 워터마크 알고리즘은 단어를 생성한 후 언어 모델의 어휘를 무작위로 "녹색 목록"과 "빨간색 목록"으로 나누고, 그런 다음 모델이 "녹색 목록"에서 단어를 선택하도록 합니다. 기사에 '녹색'으로 표시된 단어가 많을수록 해당 텍스트가 기계로 생성되었을 가능성이 높습니다. 인간이 쓴 텍스트는 더 무작위적인 단어 조합을 포함하는 경향이 있습니다.

간단히 말해서,AIGC 감지 기술은 "AI를 이용해 AI를 무찌르는 것"입니다.엄청난 양의 텍스트와 데이터 샘플을 활용하면 평균 문장 길이, 어휘 다양성, 텍스트 길이 측면에서 인간과 AIGC 도구 간의 차이점을 파악할 수 있으며, 이를 통해 AI 논문의 "총잡이"를 찾아낼 수 있습니다.

하지만 여기에는 몇 가지 기술적인 어려움이 있습니다. 예를 들어, 언어 모델은 인간이 만든 텍스트로 훈련됩니다. 매개변수의 수가 많을수록 인간의 창조물에 더 가까워지고 구별하기가 더 어려워집니다. 또한, 감지 기능은 텍스트의 길이에 따라 제한됩니다. 감지의 정확성은 텍스트가 충분히 긴 경우에만 보장될 수 있습니다.

과학 연구에 AI를 합리적으로 활용하려면 아기와 목욕물을 함께 버리지 마십시오.

과학을 위한 AI  성공적인 적용은 어느 정도 과학 연구자들을 텍스트와 데이터를 처리하는 작업에서 "구출"하여 연구 자체에 더 집중할 수 있게 했으며, 이는 효율성을 개선하고 과학 연구의 진행을 어느 정도 가속화할 수 있었습니다. 게다가 인공지능은 심층적이고 복잡한 과학 연구 내용의 탐구를 완료하는 데 있어서도 뒤지지 않습니다.

예를 들어, 최근 몇 년 동안 의학 연구 분야에서 많은 주목을 받은 예측 모델은 일부 새로운 연구자들을 어리둥절하게 만들었습니다. AI는 연구자들이 신속하게 적격 모델을 구축할 수 있도록 돕는 아이디어와 방법을 점진적으로 확립할 수 있습니다.

예를 들어, 실험 설계 및 최적화 측면에서 AI는 실험 목적, 방법, 재료 등의 정보만 제공하여 자세한 실험 계획을 생성할 수 있으며, 이를 통해 과학 연구자는 기존 계획을 평가하고 최적화하고 실험 비용을 절감하는 데 도움이 됩니다.

결론적으로,우리는 생성적 인공지능을 두려워해서는 안 되지만, 과학 연구가 올바른 방향으로 나아갈 수 있도록 규제하고 지도해야 합니다.과학 연구자에게는 AI 기술을 잘 활용하고 그 장점을 살려 효율적이고 정확하게 과학 연구와 논문 작성을 완료하는 것이 필요합니다. 그러나 과학의 존엄성을 유지하기 위해서는 생성적 AI에 대한 일부 거짓되고 조작된 결론을 피하기 위해 저자가 모든 의견과 데이터를 검토해야 합니다.

사실, 이것이 바로 AI for Science의 원래 의도입니다. 즉, AI를 사용하여 전통적인 과학 연구 패러다임을 재구성하고 혁신하는 것입니다.오늘날 과학을 위한 AI는 생의학, 재료화학, 수학, 물리학 등 많은 분야에서 업그레이드를 완료했으며, 실용적으로 응용할 가치가 있는 많은 중요한 성과를 창출했습니다. 하지만 많은 연구자들은 아직도 기다리고 보는 태도를 취하고 있습니다. 한편, 해당 분야에서는 저임계 AI 도구가 부족할 수 있습니다. 반면에 그들은 아직 AI와 자신의 연구 분야 사이의 교차점을 찾지 못했을 수도 있습니다.

과학을 위한 AI의 탐구 여정은 이제 막 시작되었습니다. 과학 연구와 AI가 함께 진행될 때에만 우리는 더욱 보편적인 도구와 방법을 만들어낼 수 있습니다.