미국 AGU, AI 응용 매뉴얼 발표…6대 주요 가이드라인 명확히

폭발적인 AI 응용 프로그램: 위험과 기회가 공존합니다
우주 및 환경 과학 분야에서는 AI 도구가 날씨 예보 및 기후 시뮬레이션, 에너지 및 수자원 관리 등의 응용 분야에 점점 더 많이 사용되고 있습니다. 우리는 AI 응용 분야에서 전례 없는 폭발적 성장을 경험하고 있다고 할 수 있으며, 이로 인한 기회와 위험을 고려하여 더욱 신중하게 생각해야 합니다.
미국 지구물리학연합(AGU)의 후속 보고서는 AI 도구의 광범위한 적용을 더욱 명확히 보여줍니다.2012년부터 2022년까지 초록에서 AI를 언급한 논문의 수가 기하급수적으로 증가하면서, 날씨 예보, 기후 시뮬레이션, 자원 관리 등에서 AI가 엄청난 영향을 미친다는 점이 강조되었습니다.

AI 관련 논문 게재 동향
하지만 AI가 강력한 에너지를 방출하는 반면, 잠재적인 위험도 동반합니다. 그 중에서도 제대로 훈련되지 않은 모델이나 부적절하게 설계된 데이터 세트는 신뢰할 수 없는 결과 또는 심지어 잠재적인 해를 초래할 수 있습니다. 예를 들어, 토네이도 보고를 입력 데이터 세트로 제공하면, 기상 현상이 더 많이 관측되고 보고되는 인구 밀도가 높은 지역에 대한 훈련 데이터가 편향될 수 있습니다. 결과적으로 이 모델은 도시 지역의 토네이도를 과대평가하고 농촌 지역의 토네이도를 과소평가하여 피해를 입힐 수 있습니다.
이러한 현상은 또한 중요한 질문을 제기합니다. 사람들은 언제, 어느 정도까지 AI를 신뢰하고 발생할 수 있는 위험을 피할 수 있을까요?
AGU는 NASA의 지원을 받아 우주 및 환경 과학에 인공지능을 적용하기 위한 일련의 지침을 개발하기 위해 전문가를 소집했습니다.AI 응용 프로그램에서 존재할 수 있는 윤리적, 도덕적 문제에 초점을 맞춥니다. 이는 우주 및 환경 과학의 특정 분야에만 국한되지 않고, 포괄적인 AI 응용 프로그램에 대한 지침도 제공합니다. 관련 내용은 "Nature"에 게재되었습니다.

해당 논문은 Nature에 게재되었습니다.
논문 링크:
https://www.nature.com/articles/d41586-023-03316-8
공식 계정을 팔로우하고 "지침"에 답변하면 논문 전체 PDF를 받을 수 있습니다.
신뢰를 구축하는 데 도움이 되는 6가지 지침
현재 많은 사람들은 AI/ML의 신뢰성에 대해 여전히 sidewalk에 머물러 있습니다. 연구자/과학 연구 기관이 AI에 대한 신뢰를 구축할 수 있도록 AGU는 다음과 같은 6가지 지침을 수립했습니다.
원래 의미를 보존하기 위해 저자는 번역문과 원본 텍스트를 함께 첨부했습니다.
연구자를 위한 지침
1. 투명성, 문서화 및 보고
AI/ML 연구에서는 투명성과 포괄적인 문서화가 매우 중요합니다. 데이터와 코드만 제공하는 것이 아니라 참여자와 문제 해결 방법, 불확실성과 편견을 다루는 방법도 제공해야 합니다. 개념 개발부터 적용까지 연구 과정 전반에 걸쳐 투명성을 고려해야 합니다.
2. 의도성, 해석 가능성, 설명 가능성, 재현 가능성 및 재현 가능성
AI/ML을 이용해 연구를 수행할 때는 의도성, 설명 가능성, 재현성, 재현 가능성에 초점을 맞추는 것이 중요합니다. 개방형 과학적 방법을 우선시하고, 모델의 해석 가능성과 재현성을 개선하며, AI 모델을 설명하는 방법의 개발을 장려합니다.
3. 위험, 편향 및 효과
데이터 세트와 알고리즘의 잠재적 위험과 편향을 이해하고 관리하는 것은 연구에 매우 중요합니다. 위험과 편견의 근원을 더 잘 이해하고 이러한 문제를 식별하는 방법을 통해 부정적인 결과를 더 효과적으로 관리하고 대응하여 대중의 이익과 효과를 극대화할 수 있습니다.
4. 참여적 방법
AI/ML 연구에서는 포괄적인 설계 및 구현 방식을 채택하는 것이 매우 중요합니다. 다양한 커뮤니티, 전문 분야, 배경을 가진 사람들이, 특히 연구의 영향을 받을 수 있는 커뮤니티의 의견을 대변할 수 있도록 보장합니다. 연구의 포용성을 보장하려면 지식의 공동 생산, 프로젝트 참여 및 협업이 필수적입니다.
학술기관(연구기관, 출판사, 협회, 투자자 등)을 위한 지침
5. 홍보, 교육 및 선도적 관행
학계 기관은 산업계에 지원을 제공하고 연구자, 실무자, 자금 제공자 및 더 광범위한 AI/ML 커뮤니티에 AI/ML의 윤리적 사용에 대한 교육을 제공해야 합니다. 과학 학회, 기관 및 기타 조직은 AI/ML 윤리 교육을 지원하고, 사회적 의사 결정권자들에게 연구에서 AI/ML의 가치와 한계에 대해 교육하여 부정적 영향을 줄이기 위한 책임감 있는 결정을 내릴 수 있도록 자원과 전문 지식을 제공해야 합니다.
6. 조직, 기관, 출판사, 학회 및 기금 제공자를 위한 고려 사항
학계 기관은 행동 강령, 원칙, 보고 방법, 의사 결정 프로세스, 교육 등을 포함하여 AI/ML 윤리 문제와 관련된 정책을 수립하고 관리하는 데 앞장설 책임이 있습니다. 윤리적인 AI/ML 관행이 구현되도록 하려면 문화적 구축을 포함한 가치관을 명확히 하고 거버넌스 구조를 설계해야 합니다. 더욱이, 윤리적 관행이 분야 전체에 걸쳐 구현되도록 하려면 조직과 기관 전체에서 이러한 책임을 강화하는 것이 필요합니다.
AI 응용 프로그램에 대한 보다 자세한 조언
1. 격차와 편견에 주의하세요
AI 모델과 데이터를 사용할 때는 격차와 편견에 주의하세요. 데이터 품질, 적용 범위, 인종적 편견과 같은 요소는 모델 결과의 정확성과 신뢰성에 영향을 미쳐 예상치 못한 위험을 초래할 수 있습니다.
예를 들어, 일부 지역의 환경 데이터의 범위나 진실성은 다른 지역보다 훨씬 더 뛰어납니다. 구름이 자주 끼는 지역(열대 우림 등)이나 센서 적용 범위가 좁은 지역(극지방 등)에서는 대표성이 낮은 데이터가 제공됩니다.
데이터 세트의 풍부함과 질은 종종 부유한 지역에 유리하고 역사적으로 차별을 받아온 지역 사회를 포함한 소외 계층을 간과합니다. 이러한 데이터는 대중, 기업, 정책 입안자에게 권장 사항과 행동 계획을 제공하는 데 자주 사용됩니다. 예를 들어, 건강 데이터에서 백인 데이터를 기반으로 훈련된 피부과 알고리즘은 흑인의 피부 병변과 발진을 진단하는 데 정확도가 낮습니다.
기관에서는 연구자 교육, 데이터 및 모델의 정확성 검토, AI 모델 사용을 감독하는 전문가 위원회 구성에 집중해야 합니다.
2. AI 모델이 작동하는 방식을 설명하는 방법 개발
연구자들이 고전적 모델을 사용하여 연구를 수행하고 논문을 발표할 때, 독자들은 종종 그들이 기반 코드와 관련 사양에 대한 접근 권한을 제공할 것으로 기대합니다. 그러나 연구자들은 아직 이러한 정보를 제공하도록 명시적으로 요구받지 않아, 그들이 사용하는 AI 도구의 투명성과 설명 가능성이 부족합니다. 즉, 동일한 실험 데이터를 처리하는 데 동일한 알고리즘을 사용하더라도 다른 실험 방법으로는 결과를 정확하게 재현하지 못할 수 있습니다. 따라서 공개적으로 발표된 연구에서 연구자는 다른 사람들이 결과를 평가할 수 있도록 AI 모델이 어떻게 구축되고 배포되는지 명확하게 문서화해야 합니다.
연구자들은 모델 간 비교를 수행하고 데이터 소스를 비교 그룹으로 나누어 검토할 것을 권장합니다. 업계에서는 AI 모델이 어떻게 작동하는지 설명하고 평가할 수 있는 추가적인 표준과 지침이 시급히 필요합니다. 이를 통해 생성된 결과를 생성된 데이터와 동일한 수준의 통계적 신뢰도로 평가할 수 있습니다.
현재 연구자와 개발자들은 설명 가능한 AI(XAI)라는 기술을 개발하고 있는데, 이는 AI 모델의 출력을 정량화하거나 시각화하여 사용자에게 AI 모델의 작동 방식을 더 잘 이해시키는 것을 목표로 합니다. 예를 들어, 단기 날씨 예보의 경우, 인공지능 도구는 몇 분마다 수집된 방대한 양의 원격 감지 관측 데이터를 분석하여 심각한 기상 재해를 예측하는 능력을 향상시킬 수 있습니다.
예측의 타당성과 유용성을 평가하려면 결과에 도달한 방식에 대한 명확한 설명이 필수적입니다. 예를 들어, 화재나 홍수의 가능성과 규모를 예측할 때 이러한 설명은 사람들이 대중에게 경고할지 아니면 다른 AI 모델의 출력을 사용할지 결정하는 데 도움이 될 수 있습니다. 지구과학에서 XAI는 모델 출력을 더 잘 이해하기 위해 입력 데이터의 특성을 정량화하거나 시각화하려고 시도합니다. 연구자들은 이러한 설명을 검토하고 그 타당성을 확인해야 합니다.

인공 지능 도구는 환경 관찰을 평가하는 데 사용되고 있습니다.
3. 파트너십을 구축하고 투명성을 강화하세요
연구자들은 모든 단계에서 투명성에 중점을 두어야 합니다. 즉, 데이터와 코드를 공유하고, 재현성과 재현성을 보장하기 위한 추가 테스트를 고려하고, 방법론에 존재하는 위험과 편견을 해결하고, 불확실성을 보고해야 합니다. 이러한 단계에는 방법에 대한 보다 자세한 설명이 필요합니다. 포괄성을 보장하기 위해 연구팀에는 다양한 유형의 데이터 사용에 대한 전문가는 물론, 데이터 제공에 관여하거나 연구 결과에 영향을 받을 수 있는 커뮤니티 구성원도 포함해야 합니다. 예를 들어, AI 기반 프로젝트 중 하나는 캐나다 타루족의 전통 지식과 토착민이 아닌 사람들이 수집한 데이터를 결합하여 양식업에 가장 적합한 지역을 찾아냅니다. (go.nature.com/46yqmdr 참조).

양식 프로젝트 사진
4. 데이터 큐레이션 및 관리에 대한 지원 유지
학제간 연구 분야의 데이터, 코드 및 소프트웨어 보고에 대한 요구 사항은 FAIR 원칙(검색 가능성, 접근성, 상호 운용성 및 재사용 가능성)을 준수해야 합니다. AI와 머신 러닝에 대한 신뢰를 구축하려면 검증된 품질의 공개 데이터 세트가 필요하며, 버그와 해결책도 공개되어야 합니다.
현재 당면 과제는 데이터 저장입니다. 예를 들어, 공통 저장소를 널리 사용하면 메타데이터 문제가 발생하여 데이터 출처 추적 및 자동화된 액세스에 영향을 미칠 수 있습니다. 일부 고급 학문 연구 데이터 저장소는 품질 검사 및 정보 보완 서비스를 제공하지만, 이를 위해서는 일반적으로 인력과 시간 비용이 필요합니다.
또한 이 기사에서는 저장소에 대한 자금 지원, 다양한 저장소 유형에 대한 제한, 도메인별 저장소에 대한 수요 부족 등의 문제를 언급합니다. 학술 기관, 자금 지원 기관 및 기타 기관은 적절한 데이터 저장소를 지원하고 유지하는 데 지속적인 재정 투자를 제공해야 합니다.

연구자들은 점점 더 공통적인 데이터 저장소를 선택하고 있습니다.
5. 장기적인 영향을 살펴보세요
과학 분야에서 인공지능과 머신러닝이 광범위하게 적용되는 것을 연구할 때, 우리는 장기적인 영향을 살펴보고 이러한 기술이 사회적 격차를 줄이고, 신뢰를 강화하며, 다양한 의견과 목소리를 적극적으로 수용할 수 있도록 해야 합니다.
중국이 AI 활용에 대해 말하는 것
최근 몇 년 동안 우리나라 AI 분야에서도 'AI를 어떻게 활용할 것인가, AI를 어떻게 잘 활용할 것인가'가 뜨거운 화두입니다.
올해 두 세션의 관점에서 볼 때, 인공지능은 생성적 AI(Generative AI)를 통해 디지털 기술 혁신의 가장 활발한 분야 중 하나입니다.AIGC), 대규모 사전 학습된 모델, 지식 기반 AI가 산업에 새로운 기회를 창출하고 있으며, 우리는 기술 개발의 "시간 창구"를 잡아야 합니다.
샤오미 그룹의 창립자이자 회장 겸 CEO인 레이쥔은 과학기술혁신산업사슬을 격려하고 지원하고, 생체로봇산업의 기획과 배치를 촉진할 것을 제안했습니다. 자동차의 전체 수명주기에 대한 데이터 보안 표준 수립을 가속화하여 산업 발전을 촉진합니다. 자동차 데이터의 공유와 활용을 촉진하기 위해 자동차 데이터 공유 메커니즘과 플랫폼을 구축합니다.
360 창립자 주홍이는 중국의 "Microsoft + OpenAI" 조합을 만들고, 대규모 모델 기술 연구를 선도하며, 오픈소스 크라우드소싱을 위한 개방형 혁신 생태계를 구축하고자 합니다.
장볼리 학자는 생물제약 제조를 위한 대규모 전문 프로젝트를 설립하고, 스마트 제약 제조를 위한 핵심 기술과 장비의 연구 개발을 지원하고, 생물제약 장비 개발을 장려할 것을 제안했습니다.
두 세션의 대표와 위원들이 인공지능 분야에 대해 매우 낙관적인 입장을 보이고 있는 것을 볼 수 있습니다. 우리는 AI가 기술의 활성화를 도울 뿐만 아니라, 신뢰를 구축하고 신중하게 활용한다는 원칙에 따라 기업과 사회의 발전에 더욱 큰 도움이 되기를 바랍니다.
참고문헌:
https://www.nature.com/articles/d41586-023-03316-8
https://doi.org/10.22541/essoar.168132856.66485758/v1