内容摘要 | 第6-8页 |
ABSTRACT | 第8-10页 |
1 绪论 | 第16-26页 |
1.1 问题的提出 | 第16-22页 |
1.1.1 实践中产生的问题 | 第16-18页 |
1.1.2 相关研究缺乏 | 第18-19页 |
1.1.3 通用问题解决能力越来越重要,但在教育中还没有得到重视 | 第19-20页 |
1.1.4 比较教育研究范式的转型 | 第20-22页 |
1.2 研究目标与意义 | 第22-23页 |
1.3 研究方法 | 第23-24页 |
1.4 研究内容和组织结构 | 第24-26页 |
2 文献综述 | 第26-55页 |
2.1 问题、问题解决和问题解决能力的定义 | 第26-45页 |
2.1.1 问题 | 第26-27页 |
2.1.2 问题解决 | 第27-29页 |
2.1.3 问题解决能力和PISA问题解决能力的定义 | 第29-30页 |
2.1.4 问题或问题解决任务的分类 | 第30-33页 |
2.1.5 互动问题解决与复杂问题解决 | 第33-43页 |
2.1.6 问题解决与创造性 | 第43-45页 |
2.2 log数据分析 | 第45-49页 |
2.2.1 log数据的定义和作用 | 第45-46页 |
2.2.2 基于log数据的问题解决过程评价指标 | 第46-49页 |
2.3 基于log数据的学生问题解决过程研究 | 第49-53页 |
2.3.1 答题时间和响应时间的研究 | 第49-51页 |
2.3.2 干预频率的研究 | 第51页 |
2.3.3 VOTAT策略/控制变量策略的研究 | 第51-52页 |
2.3.4 最优性分析 | 第52-53页 |
2.4 ICT熟悉度对计算机化问题解决结果的影响 | 第53-55页 |
3 研究框架和方法 | 第55-83页 |
3.1 研究思路和步骤 | 第55-57页 |
3.2 PISA问题解决试题分类和影响问题解决的因素 | 第57-62页 |
3.2.1 PISA2012对个人问题解决的测评框架 | 第57-58页 |
3.2.2 任务特点对问题难度的影响 | 第58-59页 |
3.2.3 影响问题解决的非认知因素 | 第59-60页 |
3.2.4 PISA 2012问题解决试题结构分布及样题 | 第60-62页 |
3.3 PISA试题编码及log数据的作用 | 第62-69页 |
3.3.1 PISA 2012计算机化问题解决测评试题呈现方式 | 第62-64页 |
3.3.2 计算机化测评的优势和log数据挖掘的潜力 | 第64-67页 |
3.3.3 log数据在PISA试题编码和结果报告中的应用 | 第67-69页 |
3.4 研究方法 | 第69-83页 |
3.4.1 抽样及上海的样本分布 | 第69-73页 |
3.4.2 测试工具的翻译与修订 | 第73-76页 |
3.4.3 文献研究 | 第76页 |
3.4.4 计算机日志文件数据挖掘 | 第76-82页 |
3.4.5 PISA结果统计分析 | 第82-83页 |
4 PISA问题解决测评的理论和方法研究 | 第83-125页 |
4.1 PISA问题解决测评领域的发展 | 第83-85页 |
4.2 问题解决测评的理论基础 | 第85-105页 |
4.2.1 问题解决能力的结构 | 第85-89页 |
4.2.2 问题解决能力的相对独立性 | 第89-93页 |
4.2.3 问题解决过程和问题解决能力的测量点 | 第93-96页 |
4.2.4 问题解决能力的对成绩的预测作用(即增量效度或校标效度) | 第96-97页 |
4.2.5 问题解决能力理论研究的发展 | 第97-105页 |
4.3 问题解决能力的测评方法 | 第105-120页 |
4.3.1 问题解决能力测评方法概述 | 第105-107页 |
4.3.2 现实世界模拟:微世界 | 第107-109页 |
4.3.3 线性结构方程和微动态系统 | 第109-114页 |
4.3.4 遗传学实验室 | 第114-115页 |
4.3.5 有限状态机和微状态机 | 第115-117页 |
4.3.6 静态分析任务 | 第117-118页 |
4.3.7 问题解决结果评价指标 | 第118-120页 |
4.4 问题解决理论和方法研究的启示 | 第120-125页 |
4.4.1 理论研究的启示 | 第120-123页 |
4.4.2 测评方法的启示 | 第123-125页 |
5 基于PISA 2012log数据的问题解决过程国际比较 | 第125-174页 |
5.1 log数据分析在问题解决评价中的作用 | 第125-126页 |
5.2 静态问题解决中利用计算机互动工具的有效性比较 | 第126-136页 |
5.2.1 交通单元第1题人机互动次数与有效性分析 | 第126-130页 |
5.2.2 交通单元第2题人机互动类型分析 | 第130-134页 |
5.2.3 清洁机器人单元人机互动情况分析 | 第134-136页 |
5.3 计划和执行过程的最优性比较和错误原因分析 | 第136-145页 |
5.3.1 计划和执行过程的最优性比较 | 第136-138页 |
5.3.2 经验因素对车票第1题正确率的影响 | 第138-145页 |
5.4 控制变量策略(VOTAT策略)的国际比较 | 第145-157页 |
5.4.1 VOTAT策略数据统计方法 | 第146-148页 |
5.4.2 运用VOTAT策略对结果的影响 | 第148-152页 |
5.4.3 上海学生在室温控制第1题上的错误原因分析 | 第152-157页 |
5.5 计划性指数的国际比较 | 第157-165页 |
5.5.1 计划和执行时间比较 | 第157-161页 |
5.5.2 利用log数据对较低水平学生的计划和执行能力做出区分 | 第161-164页 |
5.5.3 计划性指数 | 第164-165页 |
5.6 探究完全性的国际比较 | 第165-169页 |
5.6.1 利用log数据对零分学生的探究行为进行分类 | 第166-167页 |
5.6.2 探究完全性比结果评分能更好地描述低水平学生的表现 | 第167-168页 |
5.6.3 探究完全性指数 | 第168-169页 |
5.7 问题解决坚持性的国际比较 | 第169-173页 |
5.7.1 各国(地区)学生问题解决的坚持性与问题解决结果比较 | 第170-171页 |
5.7.2 基于log数据评价学生问题解决的坚持性指数 | 第171页 |
5.7.3 log数据与问卷数据得出的坚持性指数比较 | 第171-173页 |
5.8 本章小结 | 第173-174页 |
6 问题解决过程指标对成绩影响的综合分析 | 第174-215页 |
6.1 PISA 2012问题解决测评的主要结果 | 第174-177页 |
6.2 问题解决的性别差异 | 第177-189页 |
6.2.1 问题解决成绩的性别差异 | 第177-179页 |
6.2.2 男女生在各类试题上的正确率和胜算比比较 | 第179-182页 |
6.2.3 问题解决过程中的性别差异 | 第182-189页 |
6.3 职业教育与普通教育学生问题解决的差异 | 第189-199页 |
6.3.1 职业教育与普通教育学生问题解决成绩差异 | 第190-191页 |
6.3.2 上海普通中学与中职校学生正确率和胜算比比较 | 第191-194页 |
6.3.3 中职学生与普通中学生问题解决过程指标的比较 | 第194-199页 |
6.4 问题解决过程的综合分析 | 第199-208页 |
6.4.1 探究次数和探究策略对"知识获取"表现的影响 | 第199-202页 |
6.4.2 元认知调控能力对"知识应用"的影响 | 第202-204页 |
6.4.3 元认知调控能力和相关生活经验对"互动问题解决"的影响 | 第204页 |
6.4.4 问题解决过程指标综合作用模型分析 | 第204-208页 |
6.5 研究的主要发现 | 第208-215页 |
6.5.1 互动问题解决可以作为评价和培养创造性的有效载体 | 第208-210页 |
6.5.2 计算机日志文件分析可以提取有效的问题解决过程评价指标 | 第210-211页 |
6.5.3 过程指标能有效区分较低水平学生并诊断错误原因 | 第211-212页 |
6.5.4 过程指标能够解释结果上的性别差异和学校类型差异 | 第212页 |
6.5.5 探究的积极性和探究策略的系统性对"知识获取"表现有显著影响 | 第212-213页 |
6.5.6 生活实践经验及元认知调控能力对知识应用和互动问题解决表现有显著影响 | 第213页 |
6.5.7 问题解决动机和坚持性对问题解决的全过程都有重要作用 | 第213-215页 |
7 政策分析和建议 | 第215-248页 |
7.1 采取多种教学方式激发学生深度学习 | 第216-226页 |
7.1.1 中国上海数学教师对学生深度认知激发较少 | 第217-220页 |
7.1.2 培养创造性问题解决能力需要深度学习 | 第220-223页 |
7.1.3 系统设计培养元认知能力的内容和方法 | 第223-226页 |
7.2 从基于知识和基于效率的课程向基于能力的课程转变 | 第226-239页 |
7.2.1 根据问题解决能力等核心素养的要求重新设计课程 | 第227-229页 |
7.2.2 问题解决能力融入学科内容 | 第229-233页 |
7.2.3 开设综合活动课程 | 第233-239页 |
7.3 运用评价促进学生高阶思维发展 | 第239-248页 |
7.3.1 提高形成性评价的质量 | 第239-241页 |
7.3.2 提高教师的评价能力 | 第241-242页 |
7.3.3 开展计算机化测评研究 | 第242-243页 |
7.3.4 借鉴专题作业的评价方式,落实综合素质评价要求 | 第243-248页 |
参考文献 | 第248-254页 |
附录 | 第254-308页 |
附录1. 计算机化问题解决试题类别和属性 | 第254-256页 |
附录2. PISA 2012计算机化问题解决样题 | 第256-274页 |
样题1 清洁机器人CP002 | 第256-262页 |
样题2 交通CP007 | 第262-266页 |
样题3 室温控制CP025 | 第266-270页 |
样题4 车票CP038 | 第270-274页 |
附录3 计算机化问题解决样题得分情况和过程指标数据附表 | 第274-308页 |
后记 | 第308-310页 |
攻读博士学位期间的科研成果 | 第310-313页 |
主持的科研项目 | 第310页 |
发表的研究成果 | 第310-311页 |
著作 | 第310页 |
论文 | 第310-311页 |
获得省部级以上奖励 | 第311-313页 |