AI 시대의 대학 수학교육은 더 이상 선택이 아닌 필수이며, 연구·교육·실무·글로벌·윤리의 모든 축이 조화를 이뤄야 한다. 대학은 AI를 단순 보조 도구가 아닌 ‘지식 동반자’로 삼아, 학생들이 복잡한 문제를 정의·해결·해석하는 역량을 길러야 한다. 우리는 기술의 진보를 어떻게 인간의 창의·책임과 함께 발전시킬 것인가 하는 점이다. 새로운 패러다임 속에서, AI와 인간이 함께 그려갈 수학교육의 미래는 이제 우리 앞에 펼쳐져 있다. AI에 대한 평가도 생각해야 할 부분이다.
AI 평가의 한계와 보완 과제
1. AI 평가의 범위와 한계
- 정량적 vs. 정성적 평가
- 정량적: ASSISTments처럼 AI가 학생의 답안 빠른 채점, 풀이 시간·정오답 패턴 분석 등을 통해 성취도를 수치화합니다.
- 정성적: 하지만 복잡한 수학 증명에서 핵심은 ‘어떻게 창의적으로 문제를 정의하고 풀었는지’입니다. 예를 들어, 학생 A와 B가 같은 답을 냈더라도, A는 직관적 아이디어를, B는 기존 정리를 변형해 풀었을 수 있습니다. AI는 최종 답안의 정확성만 보고 ‘정답/오답’으로 구분할 뿐, 이 두 접근의 차이를 판단하지 못합니다.
- 사례
- 한 대학원 수업에서 ‘극한값 계산 증명’을 과제로 낸 뒤, AI 평가 시스템에 올려본 결과 95%가 ‘정답’으로 처리되었습니다. 그러나 실제 교수 검토 결과, 40%는 논리적 비약(logical leap)이 있어 보충 설명이 필요했습니다. AI는 오답이 없는 단계를 정확히 인지하지만, ‘어느 부분에서 추가 설명이 요구되는지’까지 잡아내지 못했습니다.
2. 저작권과 기여 귀속의 모호성
- 발견자 구분의 어려움
- AI가 ‘새로운 정리’나 ‘패턴’을 제안했을 때, 기여자는 크게 세 축으로 나뉩니다.
- 알고리즘 개발자: AI 모델과 학습 파이프라인을 설계한 연구자
- 데이터 제공자: 모델에 학습용 논문·데이터셋을 공급한 기관
- AI 사용자(연구자): AI 결과를 해석·증명으로 발전시킨 수학자
- 예를 들어, LIMS가 Murmurations를 발견한 과정에서 AI 모델을 설계한 팀, 수백만 개 타원곡선 데이터를 제공한 팀, AI 결과를 정리·이론화한 수학자가 모두 기여자로 볼 수 있지만, “누가 핵심 발견자인가?”를 정하기 어렵습니다.
- AI가 ‘새로운 정리’나 ‘패턴’을 제안했을 때, 기여자는 크게 세 축으로 나뉩니다.
- 국제 가이드라인 제정 예상
- 3년 내 AI 학술 기여도 가이드라인이 나올 것으로 보이지만, “AI가 제안만 하고 인간이 증명을 완성했을 때 AI에게도 ‘공저자’ 지위를 줄 것인가?” 등 세부 방침은 여전히 논의 중입니다.
3. 신뢰와 투명성을 위한 매뉴얼 필요성
- AI 모델의 블랙박스 문제
- 대부분 딥러닝 기반 AI는 내부 연산 과정을 사람이 모두 읽어내기 어렵습니다. 수학 증명처럼 논리적 근거가 중요한 분야에서 “왜 이 단계가 맞다”고 설명할 수 없는 모델은 신뢰를 얻기 힘듭니다.
- 예시: 편향과 오류
- 한 수학 교육 AI가 고차원 함수 시각화에서 특정 영역을 과도하게 강조하여 학생이 편향된 해석을 하기도 했습니다. 이럴 때 “어떤 데이터 편향 때문에 잘못된 힌트를 준 것인지” 교사와 학생이 함께 진단할 가이드라인이 필요합니다.
- 투명한 AI 활용 매뉴얼 구성 요소
- 모델 설명: 어떤 알고리즘(예: Transformer 기반 증명 보조 모델)을 사용했는지, 학습 데이터 출처와 범위
- 평가 한계: “이 모델은 정량적 정확도 판단에 유리하지만, 창의적 논리 전개 평가는 지원하지 않습니다” 같은 명시
- 오류 대처 프로토콜: AI가 제시한 풀이 과정에 논리적 비약이 의심될 때 교사가 확인할 체크리스트
- 피드백 루프: 학생·교수가 발견한 오류·편향 사례를 개발팀에 리포트하여 모델을 지속 개선하는 절차
AI 평가 시스템은 ‘속도와 규모’ 면에서 혁신을 가져왔다. 그러나 창의적 사고의 질적 평가, 기여자 귀속의 윤리적 기준, 모델의 투명성과 신뢰성 확보라는 과제는 여전히 해결해야 할 중요한 뿌리 깊은 문제이다. AI는 더 이상 모든 것을 판단하는 완벽한 채점자가 아니라, 교수와 학생을 돕는 조력자로 인식되어야 한다. 따라서 제도와 매뉴얼은 AI의 강점을 살리되 한계를 보완하는 방향으로 설계되어야 한다. 예컨대, AI가 제공한 평가 결과에 대해 교수자가 추가 검토할 수 있는 단계별 체크리스트가 마련되어야 한다. 또한 AI 모델의 학습 데이터 출처와 알고리즘 구조를 공개하는 투명성 가이드라인도 필수적이다. 이러한 변화가 이루어질 때, AI와 인간이 협력하는 진정한 교육 혁신이 현실이 된다.
서울대학교 수리과학부 교수는 “AI는 방대한 계산과 패턴 탐지에 탁월하지만, 수학적 논리 전개나 창의적 아이디어 발상은 인간의 영역이다. AI가 제시한 증명의 논리적 비약을 교수자가 보완하고, 학생 스스로 대안을 탐색하도록 유도할 때 진정한 학습 효과가 발생한다”고 강조한다. 연세대학교 응용수학과 이민아 교수는 “투명한 AI 활용 매뉴얼은 단순한 기술 가이드가 아니라, 수학적 사고 훈련의 일환이다. 학생과 교수가 함께 모델의 한계와 오류를 분석하며 비판적 사고를 길러낼 때, AI는 학습의 촉매제가 된다”고 말한다.
카이스트 수학교육센터 박사는 “제도 설계 시 ‘AI 피드백 후 토론 세션’을 의무화해야 한다. AI가 제공한 채점 결과를 바탕으로 학생들이 소그룹 토론을 통해 서로 다른 풀이 전략을 비교·검증하도록 하면, 창의성과 협업 능력을 동시에 끌어올릴 수 있다”고 제안한다. 이처럼 수학 전문가들은 AI를 단순 자동화 도구로 보지 않고, 교수와 학생 사이의 새로운 소통 창구로 활용하는 전향적 패러다임 전환이 필요하다고 조언한다.