高中优秀英语教师阅读课的多模态话语分析
[Abstract]:The main features of today's society are globalization, mobility and networking. These changes and developments greatly affect people's communication mode and present multi-modal features. They can transmit information more effectively through the cooperation of image, sound, action and other communication resources. The form of communication is constantly changing, which to a great extent affects our classroom teaching and classroom discourse analysis. Traditionally, classroom discourse analysis is closely related to classroom language or discourse, but multimodal discourse analysis takes into account a variety of communication modes, including teachers' classroom language behavior and non-verbal behavior, because these modes are resources for meaning generation. Therefore, this paper takes three excellent English teachers in senior high school as the research object, and explores the overall situation of the mode use of the excellent teachers in reading class by classroom observation, in order to provide enlightenment to the English teaching in senior high school. Based on social semiotics, visual grammar and Zhang Delu's theory of multi-modal discourse analysis, this paper focuses on the following questions: (1) in the reading class taught by senior English teachers in senior high school; What is the overall situation of modal use? (2) what metafunctive meanings are realized by different modes in the reading class taught by high school English teachers? (3) how do different modes co-produce metafunctional meanings in the reading classes taught by senior English teachers in senior high schools? In this paper, quantitative and qualitative research methods are used, mainly qualitative research. In the aspect of quantitative research, the author adopts the multimedia tagging software ELAN.. In qualitative research, the author first analyzes the metafunctional meaning generated by a single modal, and then analyzes the relationship between different modes and the significance of interaction. The results show that: first, in the three videos, in addition to language modes, teachers also use non-verbal modes, including limb mode, visual mode, auditory mode and classroom environment. Secondly, different modes express different metafunctional meanings, namely, reproduction meaning, interactive meaning and composition meaning. Third, the relationship between different modes can be divided into two categories: complementary relationship and non-complementary relationship. In general, the language usually acts as the main mode except when the video file is played on the screen. Eyes, expressions, head movements, spatial relationships, combination of images and texts, and expanded and reinforced relationships between classroom settings and language. In addition, the relationship between gesture and language belongs to the primary and secondary reinforcement in the complementary relationship. Finally, the relationship between visual text and language belongs to the overlapping relation in the non-complementary relationship or the prominent reinforcement relationship in the complementary relationship. When the video file is the main mode in the classroom, the sound and image in the video file form the coordinated unstrengthened relationship in the complementary relationship. Among them, the narration in the music and video forms the joint non-reinforcement relation in the complementary relationship. The implications of the above conclusions for English teaching are as follows: first teachers should pay attention to the use of non-verbal modes including body mode visual mode auditory mode and classroom environment. In addition, the teacher should choose the mode according to the teaching content and the teaching goal. Finally, teachers should raise the awareness of designing courseware with both entertainment and information.
【学位授予单位】:扬州大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:G633.41
【相似文献】
相关期刊论文 前10条
1 周海鸿;;国内“多模态”符号研究文献综述[J];科教文汇(上旬刊);2014年01期
2 陈彦瑞;;国内外多模态隐喻研究新动态[J];许昌学院学报;2013年06期
3 白美娴;;人-机-人交流中符号模态选择及其意义整合——以多模态语篇博客网页分析为例[J];重庆工商大学学报(社会科学版);2009年04期
4 李毅;石磊;;教学中的多模态隐喻——应用隐喻研究的新方向[J];外语电化教学;2010年03期
5 谢竞贤;董剑桥;;论多媒体与多模态条件下的大学英语听力教学[J];外语电化教学;2010年06期
6 胡壮麟;;多模态小品的问世与发展[J];外语电化教学;2010年04期
7 丁薇;;意义的多模态构建与大学生的多元表达能力研究[J];哈尔滨职业技术学院学报;2011年01期
8 刘娟;;多模态大学英语精读教学设计与效果研究[J];海外英语;2011年04期
9 张丽;张志敏;;多模态视角下诗画语篇解读[J];延安大学学报(社会科学版);2011年03期
10 张小彩;刘陈艳;;多模态语篇分析视角下的视听说教程[J];内蒙古农业大学学报(社会科学版);2011年02期
相关会议论文 前10条
1 王爱东;谷珍;杨燕平;白鹤;;多媒体多模态教学在民办高校大学英语教学中的适用性及效果研究[A];语言与文化研究(第十四辑)[C];2014年
2 张霄军;;多模态语料库:抢救濒危语言的有效途径[A];民族语言文字信息技术研究——第十一届全国民族语言文字信息学术研讨会论文集[C];2007年
3 夏凡;王宏;;多模态情感数据标注方法与实现[A];第一届建立和谐人机环境联合学术会议(HHME2005)论文集[C];2005年
4 赵贤;;多模态基底系统性质研究[A];2010年全国应用逻辑研讨会会议论文集[C];2010年
5 张友安;胡云安;周绍磊;;Hammerstein系统的多模态模型及其两步辨识法[A];1996中国控制与决策学术年会论文集[C];1996年
6 钟若飞;郭华东;王为民;朱博勤;;SZ-4多模态传感器辐射模态数据处理与应用评价研究[A];第十四届全国遥感技术学术交流会论文摘要集[C];2003年
7 康志峰;;口译中多模态的AA研究[A];第十四届全国科技翻译研讨会论文汇编[C];2011年
8 黄俊辉;李文政;李学军;;基于多模态医学影像数据的计算机辅助医疗设计与肿瘤精确治疗[A];中国肿瘤内科进展 中国肿瘤医师教育(2014)[C];2014年
9 孟祥亮;史元春;杨欣;;基于分层原语的多模态输入统一访问接口[A];第四届和谐人机环境联合学术会议论文集[C];2008年
10 郭华东;王为民;朱博勤;;多模态传感器辐射模态数据在SZ-4飞船模拟验证研究[A];全国国土资源与环境遥感技术应用交流会论文文集[C];2004年
相关重要报纸文章 前2条
1 记者 刘垠;在分子水平上认识疾病[N];大众科技报;2009年
2 罗绵卫 王建成;中国航天科工高分专项实现零突破[N];中国航天报;2011年
相关博士学位论文 前10条
1 高静;信息物理融合系统中基于多模态数据的事件监测问题研究[D];哈尔滨工业大学;2015年
2 聂为之;多模态媒体数据分析关键技术研究[D];天津大学;2014年
3 刘鹏;慢性伤口光学仿体的多尺度多模态医学影像技术研究[D];中国科学技术大学;2016年
4 柴瑞峰;小儿神经重症患者术后多模态监测的临床研究[D];新疆医科大学;2017年
5 苗迪;基于特征层与分数层的多模态生物特征融合[D];中国科学技术大学;2017年
6 张征;英语课堂多模态读写能力实证研究[D];山东大学;2011年
7 李宝磊;多元优化过程记忆算法及动静条件下多模态寻优研究[D];云南大学;2015年
8 潘鸣威;多模态视角下的口语交际能力:重构与探究[D];上海外国语大学;2011年
9 逯波;多模态媒体信息检索技术研究[D];东北大学;2013年
10 谭帅;多模态过程统计建模及在线监测方法研究[D];东北大学;2012年
相关硕士学位论文 前10条
1 刘洁;大学英语课堂中的多模态话语对学生多元识读能力的影响[D];西南大学;2015年
2 邵荣;牛津版高中英语教材的多模态语篇分析[D];西南大学;2015年
3 王玉竹;中美报刊政治漫画的批评性多模态话语分析[D];西南大学;2015年
4 周德英;基于多模态互动意义的公益广告研究[D];华南理工大学;2015年
5 蒋迪;计划生育宣传画的多模态语篇分析[D];天津商业大学;2015年
6 宋康利;概念整合理论视角下平面广告中的多模态隐喻研究[D];湖南工业大学;2015年
7 张君艳;中国文化网主页的多模态话语分析[D];华中师范大学;2015年
8 凌霄;基于多模态话语分析的平面商业广告英汉翻译研究[D];广东外语外贸大学;2015年
9 杨晓倩;多模态语篇分析[D];宁夏大学;2015年
10 葛欣;中职英语物流词汇多模态教学模式探究[D];闽南师范大学;2015年
,本文编号:2233021
本文链接:https://www.wllwen.com/waiyulunwen/yingyulunwen/2233021.html