2025년 가을, 연세대학교 신촌캠퍼스의 한 대형 강의에서 예상치 못한 사태가 발생했다.
챗GPT를 활용한 시험 부정행위 정황이 대규모로 포착되며, 수강생 600명 중 200명이 자발적으로 커닝을 인정한 것이다.
사건의 핵심은 단순한 부정행위를 넘어선다.
AI 시대에 접어든 대학 교육이 과연 기존의 평가 체계로 작동 가능한지에 대한 물음이 제기된다.
이 글은 연세대 사례를 중심으로 대학 교육 시스템이 마주한 3가지 구조적 문제를 분석한다.
![]() |
| 연세대학교 신촌캠퍼스. AI 부정행위가 발생한 자연어처리 강의가 이 캠퍼스에서 진행되었다. 출처: 미주중앙일보 |
1. AI는 현실인데, 대학은 여전히 과거 방식이다
챗GPT는 이제 대학생의 필수 도구로 자리 잡았다.
한국대학교육협의회의 조사에 따르면 대학생의 91.7%가 과제나 시험 준비에 AI를 활용하고 있다. 하지만 대학은 이 변화를 실제 제도로 반영하지 못하고 있다.
연세대 사건이 벌어진 자연어처리 수업은 비대면 방식으로 운영되었으며, 교수는 컴퓨터 화면, 손, 얼굴을 촬영하도록 요구했다.
그러나 일부 학생은 카메라 사각지대를 만들어 놓고 여러 프로그램을 동시에 사용하는 방식으로 AI를 활용해 시험에 응시했다.
기술 사용은 진화했지만, 감시 중심의 평가 방식은 구시대적 프레임에 머물러 있었다.
2. 윤리 기준이 없으면, ‘기술의 자유’는 곧 ‘커닝의 자유’가 된다
비판적 시각 없이 기술을 수용하면, 그것은 도구가 아니라 면죄부가 된다.
에브리타임 커뮤니티에서 진행된 설문조사에서, 수백 명의 학생이 양심적으로 커닝을 인정했다. 실제로는 200명이 넘는 학생이 ‘부정행위를 했다’고 답했다.
문제는 여기서 끝나지 않는다. 일부 학생은 "AI를 쓰는 것이 왜 문제냐"는 입장을 보이기도 했다.
이는 단순한 인식의 차이가 아니다. AI를 어떻게 써야 하는지에 대한 윤리 기준이 제도적으로 마련되지 않았기 때문이다.
AI 사용 자체는 금지할 수 없다. 하지만 어떻게 써야 정당한지에 대한 사회적 기준은 반드시 필요하다.
3. 평가 방식 자체가 ‘AI 이후’를 상정하지 않았다
연세대 사례 이전에도 동국대, 고려대 등에서 유사한 문제가 반복적으로 제기됐다.
그러나 대부분은 AI를 탐지하는 기술 개발이나, 형식적인 제재에 머무르고 있다.
전문가들은 “AI 탐지보다 중요한 것은 평가 구조 자체를 재설계하는 것”이라고 지적한다.
구술 평가, 대면 논술, 과정 중심 평가 등 AI가 대신할 수 없는 방식이 이제는 필요하다.
AI 시대의 교육은 ‘정답을 맞히는 능력’이 아니라, 문제에 접근하고 해석하는 능력을 평가해야 한다.
인사이트: 지금 필요한 것은 처벌보다 재설계다
이번 사건을 단순히 징계 이슈로 보는 것은 좁은 해석이다.
연세대 AI 부정행위 사건은 기술의 문제가 아니라 제도의 문제, 그리고 더 나아가 교육 철학의 부재를 드러낸 구조적 사례다.
지금 필요한 것은 부정행위의 처벌이 아니라, AI 시대에 맞는 평가와 윤리 시스템의 재설계다.
마무리하며
AI는 멈추지 않는다.
그렇다면 교육이 멈춰 있어도 되는가?
대학은 이제 학생들에게 AI를 금지할 것인가, 아니면 AI를 윤리적으로 사용할 수 있게 교육할 것인가라는 근본적 선택 앞에 서 있다.
그리고 그 선택은 더 이상 늦춰져서는 안 된다.
📌 참고자료
면책 문구:
본 글은 사회 현상을 해설하기 위한 일반 정보이며, 특정 집단·정책·이념에 대한 가치판단을 의도하지 않습니다.

0 댓글