Advances in Psychology
Vol.05 No.11(2015), Article ID:16343,9 pages
10.12677/AP.2015.511084

Domain Specificity of Creativity: Conception and Measurement

Cuiping Tu, Fumin Fan

Department of Psychology, Tsinghua University, Beijing

Email: cuipingtu@163.com

Received: Oct. 23rd, 2015; accepted: Nov. 5th, 2015; published: Nov. 13th, 2015

Copyright © 2015 by authors and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY).

http://creativecommons.org/licenses/by/4.0/

ABSTRACT

The fierce debate on the domain generality and specificity of creativity in 90s of the last century represents that the creative research has already expanded from general to specific performance areas. The study on domain specificity of creativity has become an important research orientation. The focus of measure also transfers from divergent thinking to creative performance across various domains. Because of the complexity of creativity, how to measure is an important question in the progress of research. The study begins with the concept of domain specificity of creativity, and reviews three types of creativity assessment (Consensus Assessment Technique, standardized measurement and self-report measure). Finally, the future prospect of measurement in this field is put forward.

Keywords:Creativity, Domain Specificity, Consensus Assessment Technique, Standardized Tests, Self-Report

创造力的领域特殊性:概念和测量

涂翠平,樊富珉

清华大学心理学系,北京

Email: cuipingtu@163.com

收稿日期:2015年10月23日;录用日期:2015年11月5日;发布日期:2015年11月13日

摘 要

上个世纪90年代研究者就创造力的领域一般性和特殊性展开激烈争鸣,标志着创造力的研究从领域一般性深入到具体的表现领域。创造力的领域特殊性成为创造力研究中的重要取向。测量重点也从发散思维测验过渡到对不同领域创造性表现的测量。由于创造力的复杂性,如何测量成为研究进展中的重要问题。本研究从创造力领域特殊性的概念出发,对同感评估、标准化测验和自我报告这三类创造力的领域测量进行评析。最后,对该领域的测量提出展望。

关键词 :创造力,领域特殊性,同感评估,标准化测验,自我报告

1. 引言

在目前的创造力研究中,领域一般性和特殊性是最具争议的问题之一。上个世纪90年代开始,研究者开始就创造力的领域一般性和特殊性展开激烈争鸣。创造力的领域一般性观点认为创造力存在跨领域的一致性,不同领域存在通用的、创造力相关认知技能 (Plucker, 1998) ;而创造力的领域特殊性观点认为不同领域的创造力需要不同的认知技能,在某一领域的创造力很难迁移到其他领域 (Baer, 1998) 。在心理学研究中, 商卫星和熊哲宏(2007) 认为,尽管“领域特殊性”还不是一种统一的心理理论,但已成为一种重要的心理学思想或研究范式。我国研究者也开始关注到这个现象并展开研究 (吕凯,2014;吉海霞,谷传华,2011) 。虽然领域特殊性已经成为创造力研究中重要的取向,但由于创造力本身的复杂性,对不同领域创造力的测量仍在发展之中,对目前的测量研究进行述评和展望,可以为创造力领域的研究进展提供方法上的借鉴。

2. 创造力的领域特殊性概念

领域特殊性思想最早是由进化心理学家提出的,他们认为对人类最重要的是适应性行为,而适应性行为在各个领域是不同的。领域一般性的心理结构无法提高行为的适应性,行行精通必然是样样稀松,领域特殊性的发展则因为其具有更多进化优势而被自然选择所青睐 (Cosmides & Tooby, 1994)

随着进化和人类文明的繁荣发展,关于人类智力或心智的复杂性和特殊性也在理论和实证研究中得到了充分的证实。 Gardner (1983) 的多元智能理论认为,人类的智能分为七方面,即语言智能、逻辑–数学智能、音乐智能、空间智能、身体–运动智能、人际关系智能和自我认识智能。 Feist (2004) 也提出了七种心智领域,分别为心理、物理、生物、语言、数学、艺术和音乐。智力、心智领域均与创造力之间有着非常密切的关系,如果个体存在着多种形式的智能和心智组成,那么也可能存在着多种形式的创造力。Baer和Plucker曾就创造力的领域特殊性和一般性问题首次在《Creativity Research Journal》上进行争辩: Baer (1998) 认为创造性思维是在特殊领域表现出来的,不仅具有领域特殊性,还具有任务的特殊性,他认为广义的领域包括各种认知能力,如语言、数学、音乐或语言等,将更狭义的任务界定为微领域。 Plucker (1998) 则认为创造性是领域一般性的,所谓的领域特殊性研究只是对理论的选择性解释,存在概念、方法和逻辑等问题。这次公开的争鸣标志着创造力的领域特殊性研究的正式开端。

不论是在理论层面,还是实证研究层面,学者们对创造力研究的关注焦点从领域一般性扩展到领域特殊性 (Baer, 2012) 。创造力的游乐园模型 (Kaufman & Baer, 2004; Baer & Kaufman, 2005) ,提出创造力的四个层次结构:先决条件(Initial Requirements)、一般主题领域(General Thematic Areas)、领域(Domains)和微领域(Micro-Domains)。创造力的领域特殊性发展模型 (Plucker & Beghetto, 2004; Plucker & Zabelina, 2009) 则从纵向发展的角度,提出创造力的领域一般性–特殊性水平会随着社会环境和个体从童年到成年的发展变化而变化,随着个体的成长和发展,其创造力的领域特殊性更高。这是目前两个具有代表性的专门阐述了领域特殊性的创造力理论。除了理论层面,实证研究中对于创造力的领域特殊性的探讨也成为研究的趋势。在实证研究中,研究者从测量(创造性产品评估)和干预(创造性训练)两个不同的角度来检验创造力是否具有领域特殊性的问题,认为回答问题的关键是看不同领域的创造性作品评分是否相关,以及在一个领域的创造性训练是否可以促进另一个领域的创造力 (Baer, 2012) Conti等人(1996) 检验了13个不同领域的创造性作品的相关,发现8个正相关,4个负相关,1个零相关,且13个相关系数平均分很低(r = 0.11),只解释了1%的变异。 Baer (2008) 的研究也发现类似的结论:不同领域产品的创造性评分相关很低。 Han (2003) 通过三个研究来探索创造力的一般性和特殊性问题,研究1中检验了109个7~8岁的孩子在语言、艺术和数学这三个不同领域的创造性表现和一般创造性思维技能的关系,只有讲故事和数学问题的相关显著(r = 0.28),语言和艺术,数学与艺术之间的相关均不显著,一般性发散思维对各领域创造力的预测力也很低;研究2通过对3个高创造力孩子的案例研究检验了创造力的一般性和特殊性是如何体现的。这两个研究均支持了创造力存在领域的特殊性。 Dow和Mayer (2004) 在研究1中请被试对顿悟问题进行分类,揭示了共有4类顿悟问题:言语、数学、空间和言语和空间的综合题,在研究2和3中,被试分别接受了4类不同的问题解决训练,空间问题解决训练组比言语问题训练组在空间问题解决上的表现更好,在其他类型问题解决上则未有这种优势表现。这些研究支持:一个领域的创造力不能预测另一个领域的创造力。从创造性产品评估和创造性训练两个不同的角度对“创造力是否具有领域特殊性”的检验增添了人们对创造力领域特殊性的关注。

3. 创造力测量的发展

创造力的测量经过几十年的发展已经较为成熟。 Zeng,Proctor和Salvendy (2011) 归纳了十类测量创造力的方法:心理测量工具(发散思维测验)、人格量表、态度和兴趣系列、传记调查表、同伴提名、教师提名、专家评定、产品评价、卓越表现、自我报告的创造性活动和成绩。这里并未区分一般领域和具体领域的创造力。上述的十类测量中,针对发散思维、人格、态度和兴趣偏重于创造力的一般性,传记、提名、自我报告既可评估创造力的一般性特征(如个体表现出的创造性人格、态度等),也可用于对具体领域创造力的评估(科学、艺术、数学、音乐、绘画等),专家评定、产品评估、卓越表现则针对具体领域背景下的人或产品,更适合作为测量不同领域创造力的方法。

自上个世纪90年代创造力的领域特殊性研究兴起以来,如何测量到真实的创造力,使测量结果更具生态学效度成为该领域首要关注的基本问题。创造性思维、创造性人格测验均是对创造力一般性特征的测量,比如使用广泛的Torrance发散思维测验曾受到研究者的强烈批评 (Baer, 2008) ,但同时有研究者支持它可以作为测量一般性创造力的有效工具 (Kim, 2006) 或者至少是预测创造力的良好指标 (Kim, 2008) 。随着领域特殊性研究的发展,研究者开始提出发散思维不等同于创造力 (Runco, 2008) Kim (2008) 的元分析发现发散思维和创造性成就的相关显著,但是很低(r = 0.22)。研究者认为个体的领域性知识在理解和测量创造力上有更重要的作用,测量真实情景下的创造力成为更被认可的有效测量方法 (Weisberg, 2006) 。研究者通过对不同领域(如讲故事、写作、数学和艺术) 创造性产品的考察,从而测量以实际表现为基础的创造力 (Baer, 1996, 1998; Han, 2003)

4. 不同领域的创造力测量

目前,不同领域创造力的测量方法可以分为三大类:针对创造性产品的同感评估;针对创造力任务表现的标准化测验;针对多个领域的自我报告。

4.1. 同感评估

言语领域的创造性作品主要包括故事写作、诗歌创作、看图片写故事、看图片加标题: Baer (1994) 的一项研究中对言语创造力的测量是,给学生看一个女孩和男孩的线条画,请他们写一个原创故事,然后请专家对这些故事的创造性在5点里克特量表上进行评分;写诗也是经常被采用的测量方法 (Amabile, 1996; Baer, Kaufman, & Gentile, 2004) ;给故事加标题也曾在一些研究中使用(如, Eisenberger & Rhoades, 2001 )。艺术领域的产品通常主要有拼贴画、绘画、作曲、其他形式的艺术作品: Amabile (1982) 最早创立的拼贴画就是发给被试相同的材料请他们围绕一个主题进行拼贴画创作; Ward (1994) 用画外星动物的任务测量艺术创造力; Chen等人(2006) 在研究中对艺术创造力的测量是请被试在8分钟内画8个图形(圆形、矩形、三角形、椭圆形、参照物、人、运动、梦)。问题解决相关的产品如设计符合需要的产品、撰写解决现实问题的项目、实验设计等,偏重于真实情景下的创造力。

基于对“发散性思维是否等于创造性思维?”的质疑,人们重新思考和开发创造力的评价方法,产生了以产品评估为取向的主观评价法——同感评估技术(Consensus Assessment Technique, CAT)。该技术由 Amabile (1982) 提出,之后创造力领域的专家对其进一步发展 (Baer, Kaufman, & Gentile, 2004; Kaufman, Baer, Cole, & Sexton, 2008; Kaufman & Baer, 2012) 。CAT的理论基础是同感,即同一领域的专家们对同一作品有同感,这是评价创造力的基础。CAT主要可用于评估言语、艺术、问题解决相关领域有关作品的创造性。

同感评估技术的使用有一些通用的原则。被试创造出作品,领域内的专家对作品的创造性进行评分。专家的评分完全根据其对创造性的主观感觉独立打分,是参照不同的作品本身给出评分,并不是参照任何的标准分数。通常在5点里克特量表上打分,但这个标准并不是固定的,也有研究者用6点或7点,但至少要大于3点。一项准实验研究采用来自教育领域的已有数据——103个故事,103份个人陈述和102篇诗,请13位评审专家对这些作品在6点里克特量表上进行创造性评估 (Baer, Kaufman, & Gentile 2004) 。这将同感评估技术的应用范围得到了扩展,不仅适用于对当下创作的产品进行评估,而且也可以作为分析以往各种不同来源数据库的作品的评估方式。评分者一致性系数的高低非常重要,因为较高的一致性系数表明同感评估技术的有效性,通常0.70~0.80是可接受的 (Amabile, 1996)

评估专家要具备相应领域的专业能力是同感评估技术应用要考虑的重要问题。因为其对于领域内评审专家的要求,一方面找到多个专家并不容易,另一方面主观评分也较为费时,这使得评分成本过高。那么,是否可以采用非专家替代评分呢?针对这个问题, Kaufman,Baer,Cole和Sexton (2008) 对比了专家评估和非专家评估的有效性,请10个专家和106个大学生评估205篇诗歌的创造性,发现二者的评分虽然有一定的重叠,但差异还是偏大,说明在诗歌这个领域,不太适合用非专家的评估。但在故事创作领域的研究则结论不同,研究者同样请10名专家和106名大学生对故事创作的创造性进行评估,发现无论是专家组还是大学生组,评分的内部一致性均达到了0.70以上 (Kaufman, Baer, & Cole, 2009) Baer,Kaufman和Gentile (2004) 的研究中全部采用13位专家(5名作家/编辑,4名教师,4名心理学家)对故事、个人陈述和诗歌的评估,同样发现不同领域的作品,专家评分的内部一致性也是不同的。这揭示了不同领域的特殊性程度是不同的,领域越具有特殊性,对专家的需求越迫切。

4.2. 标准化测验

标准化测验与经典的Torrance创造性思维测验编制 (Torrance, 1998) 的设计思路类似,评分指标也参考后者(流畅性、灵活性、独创性),主要是针对某个单一领域,如科学、功能、技术、数学、语文等,由于计分系统的复杂性,这一类测量方法尚在发展之中。

青少年科学创造力测验:我国学者 申继亮、胡卫平和林崇德(2002) 编制,参照Torrance创造性思维测验编制 (Torrance, 1998) ,用于测量青少年的科学创造力。该测验有7个题目,分别对应物体应用,问题提出,产品改进,科学想象,问题解决,科学实验,产品设计,评分指标有流畅性、灵活性和独创性,评分者参照标准化的评分手册(包括常模)打分。不同途径得出的信度系数均良好,因素分析证实结构效度良好。该测验用于测量英国的1087名中学生和中国的1087名中学生,并确定了英国及中国青少年科学创造力的常模。该量表在国际上也得到广泛的认可 (Hu & Adey, 2002) 。类似的测验,有台湾学者 叶玉珠编制(2004) 的科技创造力测验,主要测量了字词联想和书包设计两个方面的能力。评分指标包括流畅性、变通性、独创性、精进性与视觉造型,该测验的信效度良好。

功能创造力测验:创造性解决诊断量表(Creative Solution Diagnosis Scale, CSDS)是由 Cropley和James (2012) 编制,目的在于评估产品的创造性,基于产品创造力的理论概念发展而成,最初有30个项目,在他们的研究中,共157名大学生被试对来自Google图片库的不同类型的捕鼠器,参照量表的项目进行5点里克特量表的评分。经过因素分析,保留了24个题目,共5个维度:关联性与有效性(Relevance & Effectiveness),问题化(Problematization),动力性(Propulsion),精美度(Elegance),开创性(Genesis)。问卷的信效度良好。

技术创造力测验:早期的研究中, 周林、查子秀和施建农(1995) 曾运用从德国引进的儿童青少年技术创造力测验(中科院修订)对中国和德国儿童的技术创造力进行了跨文化比较。我国学者 (胡卫平,万湘涛,于兰,2011) 在以往研究基础上编制了儿童青少年技术创造力测验,共包括五个项目:产品设计,材料应用,功能设计,技术方法,科技想象。记分指标参照Torrance发散思维测验,分为流畅性、灵活性与独创性。各分量表的内部一致性系数介于0.61~0.91之间,总量表达到0.80。

数学创造力测验:数学领域有代表性的创造力测验有 Balka (1974) 编制的数学创造能力测验(The Creative Ability in Mathematics Test, CAMT),他最初调查了100名数学家,100名数学家教授和100名数学教师,共有81%的个体回应了调查,建立了数学创造能力的6个测量标准,分别为形成数学因果假设、发现数学情境的规律、打破定势解决数学问题、非常规数学思维、缺失数学问题补充、分解数学问题。三个不同职业组在测量标准判断上的一致性达到80%以上。因为量表的发展经过众多专家的评估,因此也具有很强的内容效度。基于测量标准设置题目,经过主成分分析,得出发散思维(3题)和聚合思维(2题)共两个因素。 Mann (2009) 曾将发散思维题目用于其研究中,并进一步检验了测验题目的有效性。发散思维题目,例如“黑板坏掉了,教室里只有一个大球,如果在球上做几何题时,列出所有可能发生的事情”。发散思维的计分指标有流畅性、灵活性、独创性。 Balka (1974) 研究中得出的内部一致性系数为0.72,在 Mann (2009) 的研究中达到0.86。 Lee,Hwang和Seo (2003) 改编及整合了以往研究中出现的经典数学问题,利用开放性的数学问题测量学生的创造力,开发了数学创造性问题解决能力测验(Mathematical Creative Problem Solving Ability Test,MCPSAT)。该测验共有5个具体题目,分别为6点问题、6角形问题、水瓶问题、大理石问题、立体几何图形分类问题。该测验计分指标也是流畅性、灵活性、独创性。内部一致性系数为0.80,5个题目的效度为0.85~1.10。

青少年语文创造力测验:我国学者 胡卫平、胡耀岗和韩琴(2006) 编制了青少年语文创造力测验。该测验共有6个题目,分别对应问题提出、阅读理解、想象结果、写作构思、短文写作、现象探究。如短文写作题,“根据给出的10个词语,写一篇100字以内的任何内容的短文”。每个题目独立记分,评分指标有流畅性、灵活性、原创性。内部一致性系数为0.80,结构效度良好,各题目之间及题目与总分之间的相关系数为0.47~0.83。

小结:单一领域的创造力评估不仅包括以同感评估技术为基础的创造性产品评估,还包括相对客观的标准化测验,虽然同感评估技术被学者誉为创造力评估的“黄金标准” (Carson, 2006) ,但由于评估需要组织相关领域的专家,而且费时费力,需要投入的成本高,可操作性也受到限制,因此更为省时省力的标准化测验成为更为经济的测量方法。科学创造力测验由我国学者开发而成,目前已经成为国内外具有代表性的测量工具;功能、技术创造力测验针对创造性产品进行标准化评估,扩展了以往对于创造性产品常采用同感评估技术的做法;数学作为一门重要的学科领域,对该领域的研究和测量工具的开发都不足够,在国内更是缺乏,本研究介绍了两个数学创造力测验,以便为该领域的研究提供借鉴;我国学者开发的语文创造力测验构建了语文创造力的测量结构,以更为系统地考察该领域的创造力,并尝试标准化记分方式。领域内标准化测验是用非专家的方法替代专家评估的一种可行的方法,评分通常根据已有的客观标准,可以与专家评估法互为补充。

4.3. 自我报告

创造性成就问卷(Creative Achievement Questionnaire, CAQ):对个体在十个不同领域的创造性成就进行评估,由 Carson,Peterson和Higgins (2005) 编制,分别为视觉艺术、音乐、创意写作、舞蹈、戏剧、建筑、幽默、科学发现、发明、烹调艺术,并将这些领域归为或三因素(表达、科学、表演)或者二因素(科学、表演)。CAQ共有96个题目,分为三个部分,第一部分是列出十三个领域,请被试标记出自己在哪些领域具有超出常人的才能、能力或训练,第二部分呈现十个领域,每个领域有8个题目,各个题目按照创造性成就从小到大的逻辑顺序排列。被试在0~7点之间给分,分别代表不同的权重。例如视觉艺术领域,“在这个领域无训练或不具有创造性”给0分,可以直接跳到下一个领域,“在这个领域我修了课程”给1分,到“我的作品在国家级刊物上被评价”给7分,第三部分是3个他评的题目,被试需要给出是或否的标记。不同于其他的自我报告测量工具,创造性成就问卷强调突出的创造性成就,因为其根据成就的大小给予不同的权重,因此既可以用于测量日常创造力,也可以用于测量更高水平的创造成就。 Carson,Peterson和Higgins (2005) 最初对117个大学生样本的研究发现重测信度为0.81,内部一致性信度为0.96。

创造性领域问卷(Creativity Domain Questionnaire, CDQ):测量不同领域的创造力,最初由 Kaufman 和Baer (2004) 对一般主题领域展开研究,他们要求241名大学生对自己在九个层面的创造力进行评价,经因素分析得出三个因素:移情/交流(人际关系、交流、解决个人问题和写作方面的创造力),动手做(艺术、工艺和身体的创造力)和数学/科学创造力。此后的研究中, Kaufman,Cole和Baer (2009) 将关于一般主题层面的研究推进了一步,他们请3553名被试评价自己在56个不同题目上的创造性,探索性因素分析结果发现七个一般主题层面:言语艺术(Artistic/Verbal)、视觉艺术(Artistic/Visual)、企业(Entrepreneur)、人际(Interpersonal)、数学/科学(Math/Science)、表演(Performance)和问题解决(Problem Solving)。题目的表述采用单独的词或短语,如化学,音乐作曲,幽默/喜剧。采用6点里克特计分方式:完全没有创造性、不是非常有创造性、有一点创造性、有些创造性、非常有创造性和极具创造性。之后的研究得到了创造性领域问卷修订版(CDQ-R),共有21个项目,包括四个因素:戏剧(如,表演、唱歌、写作),数学/科学(如,化学、逻辑、计算机),艺术(如,手工、绘画、设计)和互动(如,教学、领导力、销售)。

Kaufman领域创造力量表(Kaufman Domain of Creativity, K-DOC):用于测量个体在五个不同领域的创造力,由 Kaufman (2012) 编制。量表编制过程中,他选择了94个创造性活动,对2318大学生进行探索性因素分析,最后选用了50项创造性活动作为题目及其对应的五个主题领域:日常创造力、学术创造力、表现(包括写作和音乐)、机械/科学创造力和艺术创造力。K-DOC的题目改编自早期的CDQ,CAQ,以及 Ivcevic和Mayer (2009) 的主观报告问卷(Life-report questionnaire),如“选择更好的解决问题的方法”、“创作一首原创歌曲”。量表采用5点里克特计分方式。5个维度的一致性系数普遍强劲,达到0.90~0.96。

小结:虽然同为测量多个领域创造力的主观测验,而且均为近10年以来开发的新工具,三个测验各有特点。创造性成就问卷(CAQ)强调公共创造性行为,涉及到更高水平的创造性成就,具有从低到高的层次结构;创造性领域问卷(CDQ, CDQ-R)强调创造力的主观意义,具有因素结构;Kaufman领域创造力量表(K-DOC)针对不同领域的创造性活动,测量的是创造性行为或潜能的高低。三个量表对于领域的划分、具体题目数、记分方式均有所差异,但均为信效度得到检验的可靠的工具,研究者可以根据研究目的选用。

5. 未来展望

虽然已有很多针对创造力的不同领域的测量方法,但是就领域测量的研究现状而言,尚需要从以下几个方面完善:1) 创造力领域结构的研究:创造力领域特殊性的发展推进了人们对于不同领域认识的深化, Baer和Kaufman (2004) 提出的创造力游乐园模型区分七个主题层面 (Kaufman, Cole, & Baer, 2009) ,每个主题层面是具体的领域,每个领域下面又有微领域,对领域的结构进行了层次上的界定,但由于不同主题层面存在相互包含关系(如企业和人际),而且对于领域及微领域的具体划分并没有详细的说明和实证的支持,因此只是在理论构思上提供了启示。对创造力领域结构进行清晰的界定是对不同领域创造力进行测量的基础,因此未来需要更多针对创造力的领域结构的实证研究;2) 标准化测量的发展:创造力领域的标准化测验评分中不需要依赖于专家的评估,更为经济、高效,但标准化建立过程中却要求很高,一方面测验需要建立详细的评分标准、程序和可参照的常模,另一方面领域的特殊性越高,越需要具体领域的专家和心理测量学家的共同合作,因此目前发展成熟的、针对具体领域的标准化测验并不多,这也是未来的测量研究需要开拓的部分;3) 多元化测验的发展:创造力本身是一个多元的概念,在领域上有一般性和领域特殊性之分,在内容上有个人(person)、过程(process)、环境(press)和产品(product)之分,在水平上又有微创造力、小创造、专业和卓越创造力之分。最近有学者在这个方面进行了开创性的探索,发展了针对科学和艺术领域的多角度测验组合,该组测验包括领域一般性和特殊性的成分,兼顾了创造性过程的两个主要阶段(观点的产生和评估),包括两个创造性成就测验(专业创造力或卓越创造力),还包括与创造力关系密切的智力和人格测量 (Agnoli, Corazza, & Runco, 2014) 。多元化创造力测验的发展可以对创造力进行更为全面、真实的考察,使得我们可以更近距离地触及“创造力”的本质。

致谢

国家留学基金委对本研究第一作者在美国康涅狄格大学一年的资助。

文章引用

涂翠平,樊富珉. 创造力的领域特殊性:概念和测量
Domain Specificity of Creativity: Conception and Measurement[J]. 心理学进展, 2015, 05(11): 648-656. http://dx.doi.org/10.12677/AP.2015.511084

参考文献 (References)

  1. 1. 胡卫平, 胡耀岗, 韩琴(2006). 青少年语文创造力的发展研究. 心理发展与教育, 3, 69-74.

  2. 2. 胡卫平, 万湘涛, 于兰(2011). 儿童青少年技术创造力的发展. 心理研究, 4(2), 24-28.

  3. 3. 吕凯(2014). 创造性人格的领域性及其对教育的启示. 黑龙江高教研究, 1, 144-146.

  4. 4. 吉海峡, 谷传华(2011). 创造性的领域特殊性与领域一般性的争论. 心理学进展, 1(2), 91-95.

  5. 5. 商卫星, 熊哲宏(2007). 进化心理学关于心理模块的领域特殊性思想. 华东师范大学学报(教育科学版), 25(1), 56-61.

  6. 6. 申继亮, 胡卫平, 林崇德(2002). 青少年科学创造力测验的编制.心理发展与教育, 4, 76-81.

  7. 7. 叶玉珠(2004). 科技创造力测验的发展与常模建立. 测验学刊, 51(2), 127-162.

  8. 8. 周林, 查子秀, 施建农(1995). 5、7年级儿童的图形创造性思维(FGA)测验的比较研究──中德技术创造力跨文化研究结果之一. 心理发展与教育, 1, 19-23.

  9. 9. Agnoli, S., Corazza, G. E., & Runco, M. (2014). Measuring Creativity through a Multi-Sided Measurement Approach within Scientific and Artistic Domains. First Annual International Creativity Collaborative, Athens, Georgia.

  10. 10. Amabile, T. M. (1982). Social Psychology of Creativity: A Consensual Assessment Technique. Journal of Personality and Social Psychology, 43, 997-1013. http://dx.doi.org/10.1037/0022-3514.43.5.997

  11. 11. Amabile, T. M. (1996). Creativity in Context: Update to the Social Psychology of Creativity. Boulder, CO: Westview.

  12. 12. Baer, J. (1994). Divergent Thinking Is Not a General Trait: A Multi-Domain Training Experiment. Creativity Research Journal, 7, 35-46. http://dx.doi.org/10.1080/10400419409534507

  13. 13. Baer, J. (1996). The Effects of Task-Specific Divergent-Thinking Training. Journal of Creative Behavior, 30, 183-187. http://dx.doi.org/10.1002/j.2162-6057.1996.tb00767.x

  14. 14. Baer, J. (1998). The Case for Domain Specificity of Creativity. Creativity Research Journal, 11, 173-177. http://dx.doi.org/10.1207/s15326934crj1102_7

  15. 15. Baer, J, Kaufman, J. C., & Gentile, C. A. (2004). Extension of the Consensual Assessment Technique to Nonparallel Creative Products. Creativity Research Journal, 16, 113-117. http://dx.doi.org/10.1207/s15326934crj1601_11

  16. 16. Baer, J., & Kaufman, J. C. (2005). Bridging Generality and Specificity: The Amusement Park Theoretical (APT) Model of Creativity. Roeper Review, 27, 158-163. http://dx.doi.org/10.1080/02783190509554310

  17. 17. Baer, J. (2008). Divergent Thinking Tests Have Problems, But This Is Not the Solution. Psychology of Aesthetics, Creativity, and the Arts, 2, 89-92. http://dx.doi.org/10.1037/1931-3896.2.2.89

  18. 18. Baer, J. (2012). Domain Specificity and the Limits of Creativity Theory. The Journal of Creative Behavior, 46, 16-29. http://dx.doi.org/10.1002/jocb.002

  19. 19. Balka, D. S. (1974). The Development of an Instrument to Measure Creative Ability in Mathematics. Dissertation Abstracts International, 36, 98.

  20. 20. Carson, S., Peterson, J. B., & Higgins, D. M. (2005). Reliability, Validity, and Factor Structure of the Creativity Achievement Questionnaire. Creativity Research Journal, 17, 37-50. http://dx.doi.org/10.1207/s15326934crj1701_4

  21. 21. Carson, S. (2006). Creativity and Mental Illness. Invitational Panel Discussion Hosted by Yale’s Mind Matters Consortium, New Haven, CT.

  22. 22. Conti, R., Coon, H., & Amabile, T. M. (1996). Evidence to Support the Componential Model of Creativity: Secondary Analyses of Three Studies. Creativity Research Journal, 9, 385-389. http://dx.doi.org/10.1207/s15326934crj0904_9

  23. 23. Cosmides, L., & Tooby, J. (1994). Origins of Domain Specificity: The Evolution of Functional Organization. In L. A. Hirschfeld, & S. A. Gelman (Eds.), Mapping the Mind (pp. 116). Cambridge: Cambridge University Press. http://dx.doi.org/10.1017/cbo9780511752902.005

  24. 24. Chen, C., Himsel, A., Kasof, J., Greenberger, E., & Dmitrieva, J. (2006). Boundless Creativity: Evidence for the Domain Generality of Individual Differences in Creativity. The Journal of Creative Behavior, 40, 179-199. http://dx.doi.org/10.1002/j.2162-6057.2006.tb01272.x

  25. 25. Cropley, D. H., & Kaufman, J. C. (2012). Measuring Functional Creativity: Non-Expert Raters and the Creative Solution Diagnosis Scale. The Journal of Creative Behavior, 46, 119-137. http://dx.doi.org/10.1002/jocb.9

  26. 26. Dow, G. T., & Mayer, R. E. (2004). Teaching Students to Solve Insight Problems: Evidence for Domain Specificity in Creativity Training. Creativity Research Journal, 16, 389-398. http://dx.doi.org/10.1080/10400410409534550

  27. 27. Eisenberger, R., & Rhoades, L. (2001). Incremental Effects of Reward on Creativity. Journal of Personality and Social Psychology, 81, 728-741. http://dx.doi.org/10.1037/0022-3514.81.4.728

  28. 28. Feist, G. J. (2004). The Evolved Fluid Specificity of Human Cre-ative Talent. In R. J. Sternberg, E. L. Grigorenko, & J. L. Singer (Eds.), Creativity: From Potential to Realization (pp. 57-82). Washington DC: American Psychological Association. http://dx.doi.org/10.1037/10692-005

  29. 29. Gardner, H. (1983). Frames of Mind: The Theory of Multiple Intelligences. New York: Basic Books.

  30. 30. Han, K. (2003). Do-main-Specificity of Creativity in Young Children: How Quantitative and Qualitative Data Support It. Journal of Creative Behavior, 37, 117-142. http://dx.doi.org/10.1002/j.2162-6057.2003.tb00829.x

  31. 31. Kaufman, J. C., & Baer, J. (2004). Sure, I’m Creative—But Not in Math! Self-Reported Creativity in Diverse Domains. Empirical Studies of the Arts, 22, 143-155. http://dx.doi.org/10.2190/26HQ-VHE8-GTLN-BJJM

  32. 32. Kaufman, J. C., & Baer, J. (2004). The Amuse-ment Park Theoretical (APT) Model of Creativity. Korean Journal of Thinking and Problem Solving, 14, 15-25.

  33. 33. Kaufman, J. C., Baer, J., Cole, J. C., & Sexton, J. D. (2008). A Comparison of Expert and Nonexpert Raters Using the Consensual Assessment Technique. Creativity Research Journal, 20, 171-178. http://dx.doi.org/10.1080/10400410802059929

  34. 34. Kaufman, J. C., Baer, J., & Cole, J. C. (2009). Expertise, Do-mains, and the Consensual Assessment Technique. The Journal of Creative Behavior, 43, 223-233. http://dx.doi.org/10.1002/j.2162-6057.2009.tb01316.x

  35. 35. Kaufman, J. C. (2012). Counting the Muses: Development of the Kaufman Domains of Creativity Scale (K-DOCS). Psychology of Aesthetics, Creativity, and the Arts, 6, 298-308. http://dx.doi.org/10.1037/a0029751

  36. 36. Kim, K. H. (2006). Can We Trust Creativity Tests? A Review of the Torrance Tests of Creative Thinking (TTCT). Creativity Research Journal, 18, 3-14. http://dx.doi.org/10.1207/s15326934crj1801_2

  37. 37. Kim, K. H. (2008). Meta-Analyses of the Relationship of Creative Achievement to Both IQ and Divergent Thinking Test Scores. The Journal of Creative Behavior, 42, 106-130. http://dx.doi.org/10.1002/j.2162-6057.2008.tb01290.x

  38. 38. Lee, K. S., Hwang, D. J., & Seo, J. J. (2003). A Devel-opment of the Test for Mathematical Creative Problem Solving Ability. Journal of the Korea Society of Mathematical Education Series D: Research in Mathematical Education, 7, 163-189.

  39. 39. Mann, E. L. (2009). The Search for Mathe-matical Creativity: Identifying Creative Potential in Middle School Students. Creativity Research Journal, 21, 338-348. http://dx.doi.org/10.1080/10400410903297402

  40. 40. Plucker, J. A. (1998). Beware of Simple Conclusions: The Case for the Content Generality of Creativity. Creativity Research Journal, 11, 179-182. http://dx.doi.org/10.1207/s15326934crj1102_8

  41. 41. Plucker, J. A., & Beghetto, R. A. (2004). Why Creativity Is Domain General, Why It Looks Domain Specific, and Why the Distinction Does Not Matter. In R. J. Sternberg, E. L. Grigorenko, & J. L. Singer (Eds.), Creativity: From Potential to Realization (pp. 153-167). Washington DC: American Psychological Association. http://dx.doi.org/10.1037/10692-009

  42. 42. Plucker, J., & Zabelina, D. (2009). Creativity and Interdisciplinary: One Creativity or Many Creativities? ZDM, 41, 5-11. http://dx.doi.org/10.1007/s11858-008-0155-3

  43. 43. Runco, M. A. (2008). Commentary: Divergent Thinking Is Not Synonymous with Creativity. Psychology of Aesthetics, Creativity, and the Arts, 2, 93-96. http://dx.doi.org/10.1037/1931-3896.2.2.93

  44. 44. Torrance, E. P. (1998). Torrance Tests of Creative Thinking: Norms-Technical Manual: Figural (Streamlined) Forms A & B. Scholastic Testing Service.

  45. 45. Ward, T. B. (1994). Structured Imagination: The Role of Conceptual Structure in Exemplar Generation. Cognitive Psychology, 27, 1-40. http://dx.doi.org/10.1006/cogp.1994.1010

  46. 46. Weisberg, R. W. (2006). Modes of Expertise in Creative Thinking: Evidence from Case Studies. In K. A. Ericsson, N. Charness, P. J. Feltovich, & R. R. Hoffman (Eds.), The Cambridge Handbook of Expertise and Expert Performance (pp. 761-787). New York: Cambridge University Press. http://dx.doi.org/10.1017/CBO9780511816796.042

  47. 47. Zeng, L., Proctor, R. W., & Salvendy, G. (2011). Can Tra-ditional Divergent Thinking Tests Be Trusted in Measuring and Predicting Real-World Creativity? Creativity Research Journal, 23, 24-37. http://dx.doi.org/10.1080/10400419.2011.545713

期刊菜单