전체메뉴

검색
팝업창 닫기
이메일보내기

"AI 사용 책임은 본인 몫"…서울대, 첫 AI 가이드라인 마련

'교육·연구·행정' 윤리기준 제시

AI 부정 사용 땐 '불이익' 규정도

"결과물에 따른 책임 본인에게"

대학가 가이드라인 마련 잇따라

서울대학교 전경. 연합뉴스




서울대가 인공지능(AI) 윤리 원칙, 결과물에 따른 책임 범위 등을 명시한 가이드라인을 처음 제정했다. 최근 대학가에서 잇따르는 AI 부정행위를 방지하고 학내 AI 사업을 본격화하려는 취지로 풀이된다.

서울대는 ‘서울대학교 AI 가이드라인’을 이달 1일 제정해 학교 구성원에게 배포했다고 8일 밝혔다. AI 기술의 생산적이고 책임 있는 활용을 장려하고 신뢰성과 안전성을 아우르는 윤리적 기준을 확립하기 위해 가이드라인을 마련했다는 것이 학교 측의 설명이다.

7페이지 분량의 가이드라인에는 △교육·학습 △연구·개발 △행정 3가지 분야의 윤리 기준이 제시됐다. 특히 최근 논란이 된 AI 부정행위와 관련해 ‘교수가 금지한 방식으로 AI를 활용하는 경우 불이익을 받을 수 있다’고 명시했다. 또 학생은 교수가 허용한 범위 내에서 AI 도구를 활용할 수 있지만 그 활용에 대한 최종적인 책임을 져야 한다는 점을 분명히 했다. 교수는 강의계획서 등에 AI 활용 정책을 명확히 밝히고 학생 평가를 AI에 의존하는 것을 지양해야 한다는 내용도 담겼다.



연구 분야에서는 AI를 활용한 결과물에 오류나 편향이 존재할 수 있음을 유의하도록 했다. AI 결과물은 연구자가 반드시 재검토하고 민감한 정보가 AI를 통해 외부로 유출되지 않도록 주의해야 한다고 규정했다. AI 연구와 개발에 참여하는 이들은 개발의 전 과정을 투명하게 관리해야 한다는 원칙도 제시했다.

AI 활용의 중요성 또한 언급됐다. 가이드라인에는 ‘AI 기술이 빠르게 발전하는 만큼 구성원은 최신 동향과 한계를 파악하고 필요한 역량을 발전시키기 위해 노력한다’는 내용이 담겼다. 다만 AI의 결과물에 대해 끊임없이 검증해야 하며 결과물 제출과 활용에 따른 모든 책임은 본인에게 있다는 조항도 함께 명시됐다.

지난해 서울대 ‘통계학실험’ 강의에서 AI를 이용한 부정행위가 발생하자 교내에서는 AI 윤리 가이드라인을 수립하려는 논의가 이어져 왔다. 이번 가이드라인은 서울대 AI 사업 확대의 출발점으로도 해석된다. 유홍림 서울대 총장은 2일 신년사에서 “AI 네이티브 캠퍼스를 목표로 AI 가이드라인을 마련하고 생성형 AI 캠퍼스 라이선스를 도입해 교육·연구에 적절히 활용할 수 있게 하겠다”고 밝혔다.

다른 대학들도 자체 기준 마련에 나서고 있다. 연세대는 지난해 9월 ‘교수자를 위한 생성형 AI 활용 지침’을 발표했고 고려대는 2023년 3월 ‘챗GPT 등 AI의 기본 활용 가이드라인’을 제정한 뒤 지난해 이를 ‘AI 활용 가이드라인’으로 업데이트했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널