查看原文
其他

徐显龙等|如何设计中小学生信息素养情境化测评

徐显龙 张琦慧等 现代远程教育研究
2024-09-24
点击上方蓝色文字关注我们


作者简介徐显龙,博士,副研究员,硕士生导师,华东师范大学教育信息技术学系(上海 200062);张琦慧,硕士研究生,华东师范大学教育信息技术学系(上海 200062);张昱瑾,中国福利会儿童教育传媒中心(上海 200040);申皓宁,二级教师,南京市江宁区淳化中心小学(江苏南京 211122)。
基金项目华东青少年教育研究发展中心委托课题“中小学生信息素养评估框架与应用研究”(14108-412321-20002)。

引用:徐显龙,张琦慧,张昱瑾,申皓宁(2023).如何设计中小学生信息素养情境化测评[J].现代远程教育研究,35(3):22-30,39.


摘要:信息素养作为一种复杂的综合能力素养,对其进行科学、有效的测评一直是研究者关注的焦点。然而,当前国内的中小学生信息素养测评大多采用基于主观的自陈式问卷或剥离真实情境的标准化测试,无法准确评价学生应用信息素养解决现实问题的能力。情境化测评是以真实情境为基础构建具有高连续性及关联度的测评试题,能够深入考查学生在信息社会灵活、合理运用信息与信息技术的能力。中小学生信息素养情境化测评的设计需遵循一定思路:首先,需要通过界定学生信息素养的内涵及构成要素来明确评估目的;其次,根据评估目的及学生特征选取恰当的情境,并将其转化为测评情境;最后,根据情境任务及信息素养关键能力命制具体问题,形成整合的情境化测评试题。需要特别注意的是,情境的设计应当具有代表性、趣味性并避免过度追求真实性,问题的命制要注意测评目标的单一性、解决方案的唯一性与问题表述的情境化。面向小学中高段学生的信息素养情境化测评实践应用结果表明,该测评思路具有可行性且测评工具具有有效性。
关键词:信息素养;信息素养测评;情境化测评;问题命制



一、引言
信息素养是21世纪核心素养的重要组成部分,是融合信息意识、能力、态度的综合素养。随着信息技术与线上教育的蓬勃发展,仅具备基本的信息技术操作技能已不能满足当下学习的需求,只有将信息素养内化为自身的一种品格和能力,才能灵活应对学习和生活中各种错综复杂的问题。2020年10月,中共中央、国务院印发的《深化新时代教育评价改革总体方案》指出要加强学生综合素质评价,建立中国特色的教育评价体系(新华社,2020)。信息素养作为综合素质的重要一环,亟需评价体系和评估工具的建立。对学生的信息素养水平进行准确测评不仅是提升学生信息素养水平的前提,也对我国创新人才培养、贯彻落实教育信息化相关政策具有重要意义。
当前学生信息素养测评大多采用传统的自陈式量表测试,往往存在测评效度低、准确性难以保障的问题(Samson,2010)。这种测评方式与个体自我评估能力相关(Kruger et al.,1999),不适合中小学段的学生测评,且往往存在社会赞许性效应,即受测者的自我报告易受外界期望影响,从而导致测评结果与实际能力之间存在一定偏差(Barger,2002)。部分研究使用基于客观题的标准化测试,最典型的如美国肯特大学TRAILS测评(Blevens,2012)和德国NEPS的ICT测评(Senkbeil et al.,2017),有效地克服了自我评估不准确的问题,但标准化测试更多关注纯粹的陈述性知识,题目之间互相独立,且缺乏与现实世界的联系,无法考查学生在面对真实问题时的能力表现,因此也并不适用于信息素养这一高阶综合能力的测评。信息素养考查的是学生应对各种复杂现实情境、利用信息解决现实任务的能力,情境在其中起到连结和承载的作用,是在知识领域和现实领域建立联系的重要桥梁(Siddiq et al.,2016)。知识建构于情境之中,又应用于现实情境。基于情境进行信息素养的测评将学习者返还于现实的信息社会,不仅能够较为真实地反映学习者应用信息素养解决问题的能力,也可以在一定程度上帮助学习者理解抽象概念与现实环境之间的距离,从而促进自我反思与素养能力的提升(Bellocchi et al.,2016)。
情境化的测评设计在许多国家都受到了重视并取得了较好的效果,而国内的信息素养测评大多采用自陈式问卷,基于情境的测评较少,且缺乏系统的方法思路,在情境设定上也存在一定问题。因此,本研究在广泛了解当前信息素养测评方法的基础上,基于情境化命题思想,提出了中小学生信息素养情境化测评设计思路,并以小学中高段学生为例进行了测评试题设计和实践应用,以验证思路的可行性与测评试题的有效性。
二、文献综述
情境一般指一个人或一群人进行某种活动所处的特定背景、环境,它能够激发人的心理活动和情感的产生。比利时著名教育家罗日叶将情境的架构引入教育当中,指出情境可以用于特定学习内容的教学及学习者所学知识的整合,基于情境实施测评更有助于学习者能力的综合性评估(易克萨维耶·罗日叶,2010,p.68)。情境化测评就是通过提供具有一定综合性、情境性、复杂性信息的试题,来激发学习者表现出潜在的心理特质的评价方式(贾林芝,2020)。
1.国际信息素养情境化测评项目
国际知名的PISA测评非常重视情境在测评中的应用,认为个体需要基于特定的环境展示特定的能力,情境是测评赖以发生的背景,因此不论是阅读、数学还是科学素养的测评,情境都是PISA测评的基本要素(OECD,2017)。PISA2015年的科学素养测评从个人、国家和全球三个维度,列举了健康与疾病、自然资源、环境质量、危害和科学技术前沿5个方面可供选择的测评情境(OECD,2017)。这些情境的融入使测评不再局限于机械的书本知识,而着眼于现实世界的实际问题,不仅考查学习者的知识、技能,也激发学习者将知识迁移运用到生活场景中的素养能力。
在信息素养测评领域,美国“国家教育进步评价”(National Assessment of Educational Progress,NAEP)中的ICT(Information and Communications  Technology)评估是最为典型的信息素养评估项目,从信息检索、建构、交流、道德、应用以及基本数字工具使用能力等方面分别对4、8、12年级的学生制定了能力目标要求,并在2018年对大约15,400名8年级学生进行了评估。NAEP与PISA一样,关注情境在测评中的运用,它使用电脑文本、视频、动画等多媒体形式呈现测评情境,并且通过故事线逐步展开测评任务(杨玉琴,2017)。其情境分为长、中、短三种类型,一般具备明确的主题和任务目的,通过学习者的问题作答和一系列交互行为评估其ICT水平。例如“创建青少年娱乐中心的宣传网站”,学生需要完成从选择创意到规划视频、挑选音乐、评估视频的一系列任务,在这个过程中了解学生是如何将其知识技能应用于现实情境的。澳大利亚国家评估项目(National Assessment Program,NAP)中的ICT素养评估同样使用了情境化的测评方式,强调在虚拟的现实情境中完成日常生活中的校内外任务(National Assessment Program,2018)。NAP开发了专门的测试软件,所有的测试题目均通过情境任务方式呈现,如计算机游戏、幻灯片放映等。
目前国际上较为权威的信息素养评估项目中,美国NAEP测评和澳大利亚的NAP测评是较为典型的情境化测评项目,其他的信息素养测评仍采用的是标准化测试或问卷调查的方式,可见当前信息素养测评领域情境的应用和实践仍然十分有限。
2.国内信息素养情境化测评现状
在国内,情境化测评思想主要基于学科核心素养测评的目的提出。《普通高中课程方案》要求关注学生的“真实性学业成就”,以及综合运用已学知识创造性解决问题的能力,而对这种综合能力的测评,需要基于整合真实情境、课程内容和学科核心素养的评价体系(杨向东,2018)。国内不少学者面向基础教育、职业教育,对各学科的情境测评方法、情境化试题的编制进行了研究,其中也包括对信息技术学科核心素养评价的研究(魏雄鹰等,2017)。
在信息素养测评领域,国内尚未有权威的信息素养测评项目,“情境”在信息素养测评中的应用仍处于探索阶段。王杨春晓(2019)在进行测评工具开发时基于受测者常见生活情境进行试题设计,余丽芹等(2021)开发的小学中高段学生信息素养测评试题也同样融入了情境素材。然而这类试题虽然为每个题目都提供了情境,但各个题目之间独立封闭且没有联系,因此常被认为是伪情境化的,无法为受测者创设具有过程体验的自然情境。刘亚男(2015)对基于场景的信息素养测评进行了初步探索,在测试题设计时融入了情境测评方式,而后通过学生的问题解决情况以及信息行为表现和规律来判断其信息素养水平,但是在测评场景和试题的设计上较为主观,缺乏相应的理论支撑或方法指引。
由此可见,国内信息素养情境化测评还存在较大的研究空间。虽然部分学者已经开始关注情境在测评中的作用,也进行了一些融入情境的试题设计探索,但是没有将情境化测评作为一种新的测评方式来提出系统的方法论,在情境的选择、设计以及试题的编制上缺乏相关理论的支持,较为主观;同时缺乏具体的设计过程,对于其适用场景和群体的描述较为模糊,对实际应用的指导意义不够。除此之外,现有研究对“情境”的理解和应用存在偏差。不少学者认为所谓情境化测评就是在测评试题中融入一些与生活相关的元素,并未考虑情境的适用群体以及新颖程度,往往导致试题仅披有一层情境外衣,很容易将问题从所谓情境中剥离开来,成为纯粹的知识应答,削弱了对学生思维和能力的挑战。还有一些基于情境的命题往往呈现出题目情境互相独立、知识点分散的特点,并不利于学习者综合素养能力的体现。
三、信息素养情境化测评设计的思路与方法
1.设计思路
基于上述分析,研究提出信息素养情境化测评的设计思路,如图1所示。学生信息素养的培养源于生活情境,对学生信息素养水平的测评也应当基于情境。信息素养作为个体内在的品质特征不易直接观测,而情境可以作为有效载体,在评估目的与学生真实信息素养水平之间建立联系,通过学生在情境中的反应表征其信息素养的特征和水平。
图1 信息素养情境化测评设计思路
评估目的是对学生在测评中即将展现的能力、素养的要求,是测评设计的前提和出发点。在理解信息素养内涵及构成要素的基础上,本研究对信息素养的能力维度进行划分,从意识、态度、知识技能、应用、创新等方面概括出目标关键能力,建立信息素养能力评估框架,并结合学习者学段特征和认知水平,设定每个能力维度所需达到的级别要求。
在评估目的的指导下,基于情境主义学习理论和项目反应理论进行情境化测评试题的设计。知识具有情境性,依赖于活动与语境背景而存在(Brown et al.,1989),因此信息素养的测评不是碎片化的知识测试,而要强调各能力之间的结构性和关联性,突出在情境中对相关知识、技能和态度的综合运用。在进行试题设计时,需要将这些能力测评点放还到现实生活中,寻找契合的“情境”,运用不同的情境凸显个体在不同维度的素养能力;具体情境下的任务设计则需要关注信息素养本身,使学习者在解决问题时能够唤醒相关认知,抽象出相关素养能力,并迁移到特定情境下进行应用。
而后基于项目反应理论对情境任务下具体问题进行编制。在情境化测评试题中,测评情境和具体问题是最为重要的组成部分(易克萨维耶·罗日叶,2010,pp.6-7)。情境和问题之间存在紧密的联系,情境催生问题的产生,问题推动情境的发展。而学习者个体作为问题解决者在情境和问题之间建立起有机关联。测评本身是基于证据推理的过程(Mislevy,1996),通过真实情境的再现,关注学习者在解决情境问题时的表现,实现对其内在素养能力的综合评价。
2.评估目的
开展信息素养测评的首要环节是明确测评目的。在明确测评框架之后,需要结合学生学段、群体情况等现实因素对框架中能力维度的具体表现水平进行细化与明确。这一方面能够更为清晰地指导试题的方向和难度;另一方面便于在设计任务情境时能够准确对应素养能力的核心点和实质内涵,使所要考查的信息素养能力点能够放还到情境任务中,从而使学习者在完成测评任务时能够唤醒相关认知,抽象出信息素养相关能力,实现测评目的与测评试题的相互对应。
本研究基于对国内外权威的信息素养评估框架的研究和国内中小学生现实情况的分析,提出中小学生信息素养评估框架(申皓宁,2022),包含4项一级指标、9项二级指标和28项三级指标,如表1所示。其中信息意识主要考查学习者对信息及信息技术基本概念和作用的掌握以及在使用信息时产生的心理倾向;基本技能指学习者使用信息和信息技术的基本能力,分为操作技能和使用技能;数字化学习与创新是指学习者利用信息和信息技术开展学习、交流,进行问题解决和发展创新的能力;数字公民考查的是学习者对数字互联网时代个体在生活、学习、工作等各方面的权力、责任和机会的了解,以及确保自身行为安全合法、合乎道德的能力。
表1 中小学生信息素养评估框架
3.测评情境设计
(1)测评情境的类型与选择
用于信息素养测评的情境不应局限于普通意义上的场景,而应当指向学习者形成和应用其信息素养的情境,要能够反映真实生活中可能遇到的复杂问题和情况。但真实的情境不一定是真正存在的情境。根据罗日叶对“情境”与“真实”之间关系的阐释,教学中的情境可以分为四种,如图2所示(易克萨维耶·罗日叶,2010,pp.43-47)。其中,第一种和第二种情境源于真实生活需求,第三种和第四种情境为测评者人为建构;“真正解决”意味着学习者做出的成果能够在实际中加以应用,“模拟解决”则只是以练习和测试为目的,任务结果不实际应用。可以看出,从第一种到第四种,情境的真实性在降低,模拟性在增强,但从测评目的来看,四种情境都能够调动学习者投入到问题解决中去,展现其信息素养水平,因此都可以认为是真实有效的测评情境。而从可行性上看,第四种情境是最适合用于测评试题制作的类型。
图2 四种测评情境
为构建真实、富有意义的测评情境,本研究参考PISA测评情境的分类以及我国中小学生学习环境特征,构建了信息素养情境化测评的四大情境分类,如表2所示。情境类别的划分从个人和社会两个角度出发,其中个人相关情境分为学习和生活情境,社会相关情境分为公共服务和社会问题情境。
表2 中小学生常见的信息素养测评情境类别
“个人学习”情境主要指与学生线上学习、网络学习相关的情境。线上学习现已成为常见的学习形式,尤其是在新冠疫情期间,几乎每个学生都有线上学习的经历,而是否具备良好的信息素养决定了其能否顺利完成线上学习任务。“个人生活”情境主要指与学生日常生活、出行等相关的情境,比如开展线上调研、解决生活中遇到的问题、进行出行规划等。这类情境贴近生活,易于代入。社会相关情境将学生个人与社会发展联系,将需要测评的信息素养能力放还到个体所处的社会环境中,凸显学生作为社会群体一员的综合素养能力。“公共服务”情境将学生定位为普通市民,涉及参与社会公益项目和公共场所建设等。“社会问题”情境联系社会焦点问题,引领学生关注社会可持续发展,让学生在完成情境任务的同时逐渐树立为社会贡献力量的理想信念与责任担当。
(2)从情境到测评情境
从上述分析可以看出,情境的选择是非常多元的,关键在于如何把这些情境转化为测评情境。首先在情境范围的选择上,需要考虑学生群体的特征,选取其日常生活中能接触到的情境,避免因为不熟悉而造成额外困难。从选定的情境类别到测评情境的转化,重点在于信息素养作用的融入。根据需要考查的信息素养关键能力,挖掘情境可能引发学生调用其信息素养的行为,在情境的发展和能力的考查之间寻找可能的对应关系,从而对原有情境进行拓展,进一步设定情境所涉及的各个环节,最后将各环节综合形成完整的测评情境。
为帮助理解信息素养测评情境的设计过程,以小学中高段学生为测评对象进行设计示例,图3详细展示了测评情境的设计过程。首先结合小学生的年龄特点和日常学习生活环境,研究模拟建构了两个用于测评的情境。情境1结合了“公共服务”和“社会问题”两个话题类别,定位于城市大气污染相关的环保宣传网站制作。将这一情境特征与信息素养关键能力对照,可以发现该情境下网站的制作主要可以考查学生的信息意识、基本技能与数字公民等维度的部分能力。根据需要考查的能力和情境的可能发展方向,对情境的具体环节进行设计,将情境划分为制作准备、网站制作、参加比赛、结果公布四个环节,最终综合形成测评情境1,完成情境到测评情境的转换。情境2的设计过程与情境1相同,关注“个人学习”话题,以日益普及的线上课程为背景展开,主要考查学生在基本技能、数字化学习与创新,以及数字公民等维度的操作技能、使用技能、自主学习、协作交流和法律道德等方面的能力。
图3 小学生信息素养情境化测评流程
(3)测评情境设计注意要点
在情境化测评中,好的情境需要能够唤醒学生的图式思维,使学生将经历过的情境中的问题解决思路迁移到新的情境中(Ahmed et al.,2007)。为了确保所设计情境的有效性,需注意以下四方面:
第一,选取具有代表性的情境。为确保测评结果的有效性,需选取具有典型性和代表性的情境,确保能够激发学生运用相关信息素养能力。首先,可以从学生生活常见情境出发进行选择,这样不仅容易激发学生解决问题的动力,也能在一定程度上避免陌生情境所带来的额外困难(National Research Council,2001)。其次,需要谨慎审视所选情境与信息素养关键能力之间的关联,确保所设定的情境任务是所要推断的目标情境或任务范围的代表性样本(杨向东,2015)。
第二,避免过度追求情境的真实。真实不意味着完全的现实,过度关注情境的现实性反而容易忽略情境测评本身的目的,导致测评效度的降低。评判一个测评情境是否具有意义,关键在于其能否为学生相关知识的运用提供活动场景和背景条件,是否能够调动学生内在的综合性和复杂性能力,而不是单纯考虑其现实性程度(蒋远桥,2021)。只要能够唤起学生类似的构念,达到信息素养测评的目的,就可以作为信息素养测评的有效情境。
第三,合理把握情境的趣味性。为了让学生能够积极参与到测评情境任务中,需要确保情境具有一定的趣味性和新颖性,不能是学生已经解决过的相同问题。一个具有吸引力的情境能够使学生更快进入角色,投入到问题解决中,避免传统测评中“为了答题而答题”情况的出现。同时,也要把握情境的趣味程度,过于复杂或有趣的情境容易引起学生的关注重点失衡,尤其是针对低年龄段的学生进行情境设计时更加需要注意这一问题。
第四,避免过多的额外信息。研究表明过多的额外信息容易占用认知资源,导致注意力的分散和下降(Crisp et al.,2008)。由于信息素养测评是对学生内在素养能力的考查,需要激发学生在现实情境下的真实反应,因此情境设计时需要保留一定程度的杂乱信息,来营造真实的氛围。这些信息大多与解题不相关,它们能够帮助学生融入情境,获取信息,但同时也对题目作答造成一定的负担。因此,在描述情境时也需要注意无关信息的数量,避免对学生答题产生过度的干扰。
4.具体问题命制
(1)命制思路
如果说情境将学生带入到一个特定的环境中去,那么具体问题则是驱动情境发展、指引学生完成情境任务的必要支撑。情境只是一个环境,而具体问题才能明确指出要做什么,从而为学生指明行动方向,激发他们的兴趣并投入到测评中。结合具体问题与测评目标、测评情境的联系,研究提出如图4所示的命制思路。问题的命制首先应当从测评情境出发,顺应情境任务的发展来合理提问,并寻找与关键能力指标之间的契合点。进而从具体问题出发寻求可能考查的能力指标,再从能力指标出发规范具体问题的命制,通过学生在具体问题上的作答反映其在各能力维度上的表现情况。
图4 测评具体问题的命制思路
除此之外,在命制具体问题时还需要把握横向的整合性与纵向的过程性。情境之所以对于测评具有重要意义,是因为情境是一个有机的整体,其中蕴含着复杂多样的信息和关系,需要学生对知识技能的综合运用才能解决问题。其复杂性和整体性要求具体问题与情境发展之间存在紧密联系,各个问题需要整合于同一情境任务而不能脱离情境独立存在(OECD,2019)。与横向的整合性相对应的是纵向的过程性,学生在测评情境中作答的过程就是他们进行思考和做出行为的过程(叶丽新,2019),因此,需要通过具体问题之间承上启下的关系帮助学生融入情境的自然发展,使其获得完整的问题解决体验。具体问题应当围绕测评情境展开,在测评任务的驱动下进行命制,源于情境而又推动情境的发展,使测评情境与具体问题融合成为有机的整体。
以图3中情境1的部分环节为例来阐述具体问题的命制,如图5所示。该环节的主要任务为制作环保宣传网站所需资料的搜集,根据这一任务可以设置信息检索和处理的相关问题,主要考查学生的使用技能,同时也可引出对信息安全能力的考查。Q9通过让学生从检索结果列表中识别有用信息,考查其信息识别能力;Q10测试学生能否识别结果中不安全的链接,对应网络安全意识能力指标;Q11关注了在使用网站时经常会碰到的弹窗广告,考查学生对于虚假广告网站的安全意识;Q12承接上题,考查学生对网站浏览记录的认知。从横向来看,四个问题均从“环保宣传网站制作”大情境出发,将情境元素融入具体问题中,达到问题与情境的整合;从纵向来看,在该部分情境“资料搜集”任务的驱动下,问题之间联系紧密、环环相扣,带动情境向前发展,让学生在解题中获得资料搜集的过程体验,契合情境任务驱动下具体问题解决的过程性。
图 5 部分情境具体问题设计示例
(2)命制要点
为使测评具体问题更好地契合测评情境,提升测评的有效性,在命制问题时需要注意以下三方面:
第一,测评目标单一性。一般情况下,信息素养单个能力指标的测评可以由多个问题表征,但每个问题只指向单一能力指标。问题测评目标的单一性主要是为了确保考核的能力点明确,避免一个问题中多个能力作用占比不均衡的问题,难以判定学生在不同能力指标上的得分,对结果统计造成不必要的困难。
第二,解决方案唯一性。对于复杂的测评情境,往往存在多元的解决方法,如果问题的限定过于宽泛,则很难使学生回答出施测者希望看到的结果。因此必须对问题的表述加以限定,引导学生采取唯一的解决方式,从而使学生能够表现出问题本身需要考查的能力。
第三,问题表述情境化。问题表述要考虑情境的作用,应当是背景化的、复杂的、有趣的。以考查信息获取能力为例,传统试题一般采用简单直接的提问方式,如“获取信息都有哪些途径?”其反映的是脱离情境的机械知识记忆。而采用情境化方式则可以表述为“为了制作宣传手册,志愿队需要搜集一些有关饮食健康的图片资料,你可以从哪些渠道获取?”这既能激发学生兴趣,也能推动情境发展。
四、情境化测评实践
1.研究工具
研究工具为本研究开发的“小学中高段学生信息素养情境化测评试题”。试题基于中小学信息素养评估框架体系设计,并参考了国外TRAILS、NAEP等知名信息素养评估项目,分为前文所述的两大情境。为确保试题能够有效评估学生的信息素养,研究邀请6名信息素养领域专家及5名一线教师对试题中每个题目的质量进行打分,包括对题目与能力维度的契合度以及难度适宜程度的评估。经反馈和修订,形成小学中高段学生信息素养测评试题1.0版本,共计56题,均为4个选项的选择题,涵盖28个三级指标,每个三级指标均有1~2个问题与之对应。使用试题1.0版本对南京市C小学124名小学生(四年级35人,五年级89人)进行预测试,测试结果表明试题总体克隆巴赫系数为0.91,具备较好的信度(Ebel,1965)。
此外,试题的难度和区分度也是衡量试题质量的重要指标。研究采用通过率(答对题目人数/总人数)表示试题难度,对难度低于0.2或高于0.95的题目进行了删除或修改;采用极端分组法(前27%为高分组、后27%为低分组)计算试题的区分度,一般来说0.3以上表示区分度良好,0.4以上表示区分度很好,根据计算结果对试题进行了删改。经修正形成小学中高段学生信息素养测评试题2.0版本,共计32题,涵盖所有三级指标。
2.研究对象与实施流程
研究以南京市C小学四五年级的学生作为研究对象开展正式测评,不包含已参加过预测试的学生。参与测试的学生群体共137人,其中四年级90人,五年级47人;男生 69人,女生68人;平均年龄11岁。数据回收后再次检验试题的信度、难度、区分度,然后依据所确定的指标权重计算每个学生在信息素养各维度能力指标上的得分和信息素养总体水平。
3.效果分析
测试结果显示试题整体信度为0.99,难度为0.57,区分度为0.62,均达到可接受水平。
根据测评结果,该群体的信息素养平均得分为54.61(总分100分),信息意识维度平均得分43.89,基本技能维度平均得分57.41,数字化学习与创新维度平均得分58.69,数字公民维度平均得分58.72,信息意识维度得分略低于其他三个维度,整体上表现情况较为平均。这与信息科技学科教师访谈中提到的“基于课堂观察和学习表现,学生具有一定的基本技能和数字化学习与创新能力,也对使用信息及信息技术时相关的安全、版权和法律道德有一些认知且基本能自觉遵守,但对信息的认知和态度较为薄弱”表述一致。从年级来看,四年级平均得分52.34,五年级平均得分59.94。将分数划分为四个等级,两个年级在每个等级的分布情况如表3所示。四年级学生的测试得分处在较差和一般水平,良好以上的较少;五年级学生的测试得分大部分处于一般水平,较差和良好水平的分布相当,整体上优于四年级得分情况。这也与教师访谈中提到的“五年级学生信息素养整体表现要好于四年级学生”表述一致。
表3 学生信息素养得分情况
五、总结
信息素养作为一种复杂的综合能力素养,对其进行科学、有效的测评一直是研究者探索的方向。针对当前国内中小学生信息素养测评存在的脱离真实情境、测评效度低等问题,研究将情境主义学习理论应用于信息素养测评,试图构建信息素养情境化测评的新型测评范式,以真实情境为基础构建具有高连续性和关联度的测评试题,深入考查学生在信息社会灵活、合理运用各种数字化平台和资源,合理管理、科学规划、问题解决及创新实践等方面的信息素养能力。研究以中高段小学生为例进行了测评工具的开发,通过在南京C小学的实践应用初步验证了测评工具的有效性以及本文测评思路的可行性,从而为情境测评的研究与实践提供参考借鉴。
由于条件及时间限制,研究仍存在一些不足之处。一是研究重点关注了测评试题本身的设计,对于后续实施及结果统计环节缺乏理论层面的阐述;二是研究仅在小学阶段进行了情境化测评试题的开发和应用,尚不足以发现测评存在的问题,需要更大范围的实践来完善测评思路框架及测评试题;三是出于对小学生能力水平情况及现实因素的考虑,研究开发的测评试题仅采用了选择题题型,对于某些关键能力的考查可能存在缺陷。
未来的信息素养测评可加强对情境的关注,在测评方法和测评工具的开发上进行更多的创新和实践。情境化测评不仅仅适用于基础教育,也适用于高等教育和职业教育,可以对不同学段、不同教育场景下的信息素养测评进行设计探索,并加强测评工具的实践应用研究和迭代设计,丰富和拓展信息素养情境化测评的范式。在试题的命制上需更加体现真实性、情境性、生活性,加强相关理论对试题命制的指导,挖掘各类题型在激发学生内在素养的优劣之处,同时可以考虑使用信息技术平台支持测评的实施,开发基于计算机的测评系统,丰富情境主题、题目类型以及试题的响应形式,为受测者提供更沉浸的测评体验,从而更加深入和准确地评价其信息素养水平。
           

参考文献:

[1][比]易克萨维耶·罗日叶(2010).为了整合学业获得:情境设计与开发[M].汪淩.上海:华东师范大学出版社.

[2]贾林芝(2020).核心素养测评中“真实情境”与“真实问题”的特征分析——以生物科目为例[J].上海教育科研,(9):77-81.

[3]蒋远桥(2021).效度视域下的情境测评——以高考为核心[J].语文建设,(13):15-20.

[4]刘亚男(2015).基于情景测试的大学生信息素养评价实证研究[D].济南:山东大学:29-33.

[5]申皓宁(2022).中小学生信息素养测评的设计与实践[D].上海:华东师范大学:27-28. 

[6]王杨春晓(2019).小学中高段学生信息素养测评工具的开发研究[D].武汉:华中师范大学:27-28.

[7]魏雄鹰,肖广德,李伟(2017).面向学科核心素养的高中信息技术测评方式探析[J].中国电化教育,(5):15-18,61.

[8]新华社(2020).中共中央 国务院印发《深化新时代教育评价改革总体方案》[EB/OL].[2022-10-13].http://www.gov.cn/zhengce/2020-10/13/content_5551032.htm.

[9]杨向东(2015).“真实性评价”之辨[J].全球教育展望,44(5):36-49.

[10]杨向东(2018).指向学科核心素养的考试命题[J].全球教育展望,47(10):39-51.

[11]杨玉琴(2017).美国NAEP技术与工程素养评估述评[J].外国教育研究,44(8):22-35.

[12]叶丽新(2019).“情境”的理解维度与“情境化试题”的设计框架——以语文学科为例[J].课程·教材·教法,39(5):107-113.

[13]余丽芹,索峰,朱莎等(2021).小学中高段学生信息素养测评模型构建与应用研究——以四,五年级学生为例[J].中国电化教育,(5):63-69,101. 

[14]Ahmed, A., & Pollitt, A. (2007). Improving the Quality of Contextualized Questions: An Experimental Investigation of Focus[J]. Assessment in Education Principles Policy & Practice, 14(2):201-232.

[15]Barger, S. D. (2002). The Marlowe-Crowne Affair: Short Forms, Psychometric Structure, and Social Desirability[J]. Journal of Personality Assessment, 79(2):286-305.

[16]Bellocchi, A., King, D. T., & Ritchie, S. M. (2016). Context-Based Assessment: Creating Opportunities for Resonance Between Classroom Fields and Societal Fields[J]. International Journal of Science Education, 38(8):1304-1342.

[17]Blevens, C. L. (2012). Catching Up with Information Literacy Assessment: Resources for Program Evaluation[J]. College & Research Libraries News, 73(4):202-206. 

[18]Brown, J. S., Collins, A., & Duguid, P. (1989). Situated Cognition and the Culture of Learning[J]. Educational Researcher, 18(1):32-42.

[19]Crisp, V., Sweiry, E., & Ahmed, A. et al. (2008). Tales of the Expected: The Influence of Students’Expectations on Question Validity and Implications for Writing Exam Questions[J]. Educational Research, 50(1):95-115.

[20]Ebel, R. L. (1965). Confidence Weighting and Test Reliability[J]. Journal of Educational Measurement, 2(1):49-57.

[21]Kruger, J., & Dunning, D. (1999). Unskilled and Unaware of It: How Difficulties in Recognizing One’s Own Incompetence Lead to Inflated Self-Assessments[J]. Journal of Personality and Social Psychology, 77(6):1121-1134.

[22]Mislevy, R. J. (1996). Test Theory Reconceived[J]. Journal of Educational Measurement, 33(4):379-416.

[23]National Assessment Program (2018). NAP Sample Assessment ICT Literacy Technical Report[EB/OL]. [2022-10-13]. https://www.nap.edu.au/docs/default-source/default-document-library/nap-ictl17_tr_final.pdf.

[24]National Research Council (2001). Knowing What Students Know: The Science and Design of Educational Assessment[M]. Washington, American: National Academies Press:275.

[25]OECD (2017). PISA 2015 Assessment and Analytical Framework[EB/OL]. [2022-10-13]. https://www.oecd-ilibrary.org/education/pisa-2015-assessment-and-analytical-framework_9789264281820-en.

[26]OECD (2019). PISA 2018 Assessment and Analytical Framework[EB/OL]. [2022-10-13]. https://www.oecd-ilibrary.org/education/pisa-2018-assessment-and-analytical-framework_b25efab8-en.

[27]Samson, S. (2010). Information Literacy Learning Outcomes and Student Success[J]. Journal of Academic Librarianship, 36(3):202-210.

[28]Senkbeil, M., & Ihme, J. M. (2017). NEPS Technical Report for Computer Literacy: Scaling Results of Starting Cohort 3 for Grade 9[EB/OL]. [2022-10-13]. https://www.neps-data.de/Portals/0/Survey%20Papers/SP_XXIX.pdf.

[29]Siddiq, F., Hatlevik, O. E., & Olsen, R. V. et al. (2016). Taking a Future Perspective by Learning from the Past-A Systematic Review of Assessment Instruments that Aim to Measure Primary and Secondary School Students’ICT Literacy[J]. Educational Research Review, 19:58-84. 

收稿日期 2022-11-26 责任编辑 李鑫


欢迎转载,开白请联系18980806833(微信号)
继续滑动看下一个
现代远程教育研究
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存