大模型时代,高校编程实验课与大作业如何破局?
发布时间: 2025-04-09 浏览次数: 10

随着AI工具的普及,学生借助大模型高效完成代码编写与报告撰写,已逐渐成为学习的新常态。虽然这种方式显著提升了作业的完成度和质量,但也让老师面临一个棘手的问题——如何精准评估学生的真实能力?对此,智能算法研究中心的黄翰教授提出了积极融合技术的思路。如何在拥抱技术的同时,设计出既能激发创新又能检验核心能力的评价体系?黄翰教授的三种策略或许能提供一些新的思路。

  1. 开闭结合考核:分层评估基础能力与高阶思维

借鉴视力测试中“裸眼”与“矫正”的互补逻辑,考核可设计为两类场景:

  1.  “裸眼”闭卷考:通过限时闭卷考核,禁用AI工具,聚焦学生对核心知识点的理解与应用能力。这种考核方式就像“裸眼”视力测试,能够直接检验学生的基础功底。

  2.  “矫正”开卷考:开放使用大模型解决复杂问题,重点考察学生与工具协同工作的能力,以及问题拆解、方案迭代的创新思维。这种考核方式就像“矫正”视力测试,让学生借助工具发挥更大潜力。

两类考核结果综合评估,既能清晰定位学生的知识薄弱点,又能凸显其技术协作与问题解决的潜力,为个性化培养提供多维参考。

  1. 报告设计精细化:以深度追问引导真实思考

在让学生自由使用AI的情况下,我们可以在撰写报告部分多花点功夫来考核学生。因为我们考核的目的在于检验学生是否真正掌握了课堂所学知识,并能将其应用于实践中,那么就需要学生在报告上留下这方面的痕迹。为了规避AI生成的“表面完美”,报告中需嵌入两类硬性要求:

  1. 设计思路溯源:比如需要写清楚程序设计的思路,或者算法效率提升的原因;

  2. 实验数据闭环:所有结论必须用实验数据支撑,缺乏推导过程的“正确答案”直接降级;

尽管大模型可能生成初步内容,但学生需将通用答案转化为个性化的理解与表达。通过对报告中的细节追问,老师能更清晰地看到知识应用的痕迹、思考的深度以及解决问题的关键突破点,从而真正实现“以评促学”,让考核回归本质。

  1. 个性化命题:从能力培养出发,突破AI“题库依赖”

就像有些人去跑步,目的并不是跑得多快,而是获得比较好的心肺功能。同理,教育的核心并非仅仅完成任务,而是帮助学生真正掌握解决问题的能力。因此,从能力培养的初衷出发,考核设计应更关注学生是否通过实践内化了知识。

在这一目标下,题目需突破传统模式。尤其在AI技术广泛应用的今天,老师需主动创新命题思路,避免过度依赖教科书、教辅资料或网络公开内容。若题目设计局限于既有题库,大模型可能直接输出“标准答案”,导致考核结果难以真实反映学生的能力成长。

为应对这一挑战,建议通过个性化任务设计激发学生深度思考。例如,报告内容可以有细致的要求,每一点细致的要求都能够体现出学生是否能掌握某一方面的具体的能力,从而真正检验其是否具备独立思考和解决问题的能力。

技术革新势不可挡,但教育始终应以培养“驾驭技术”的思维为核心。通过优化考核规则,老师可以引导学生将AI转化为探索问题的伙伴,而非答案的替代者。只有这样,学生才能够真正成为技术的主人,而非被技术所左右。

以上就是我对大模型时代如何安排实验课与大作业的见解。期待能为高校实验课与大作业的设计提供新视角,也欢迎大家共同探讨!

总编:黄翰

责任编辑:雷墨鹥兮

文字:黄翰、邓淇

图片:邓淇

校稿:陈嘉慧

时间:2025310