插件列表

插件列表

以下是jsPsych发行版本中提供的插件。

还有一些并不包括在发行版中的插件可以在社区中找到。

如果想要整体了解一下插件是什么、是怎样运作的,详见插件一章。

插件 描述
animation 以固定帧率展示一连串的图片,并记录被试在观看动画过程中的按键反应和反应时。
audio‑button‑response 播放音频文件并记录被试点击按钮的行为。按钮可以自定义,例如使用图片代替标准的按钮。
audio‑keyboard‑response 播放音频文件并记录被试按键。
audio‑slider‑response 放音频文件并记录被试拖动滑动条的行为。
browser‑check 获取被试使用的浏览器的信息,并检查浏览器是否符合实验标准。
call‑function 执行一个特定的函数。不会给被试呈现任何内容,通常情况下被试甚至不会知道实验运行了这个插件。它主要用于在实验的特定阶段执行一些任务,例如保存数据。
canvas‑button‑response HTML canvas元素上绘制刺激,并记录被试点击按钮的行为。canvas元素对于呈现动态、随参数变化的图形以及控制多个图形元素(图形、文字、图像)的位置十分有用。
canvas‑keyboard‑response HTML canvas元素上绘制刺激,并记录被试按键。canvas元素对于呈现动态、随参数变化的图形以及控制多个图形元素(图形、文字、图像)的位置十分有用。
canvas‑slider‑response HTML canvas元素上绘制刺激,并记录被试拖动滑动条的行为。canvas元素对于呈现动态、随参数变化的图形以及控制多个图形元素(图形、文字、图像)的位置十分有用。
categorize‑animation 要求被试对动画做按键反应,并会给予反馈。
categorize‑html 要求被试对HTML内容做按键反应,并会给予反馈。
categorize‑image 要求被试对图片做按键反应,并会给予反馈。
cloze 求被试做填空,并检查被试作答是否正确。
external‑html 呈现一个外部HTML文档(如:知情同意书),并需要被试按键或点击按钮以进入到下一个试次。该插件可以验证被试的反应,这可以用于确认被试开始实验前是否知情同意。
free‑sort 在屏幕的随机位置上呈现一些图片,被试可以点击拖动这些图片。插件会记录被试对图片全部的移动行为,这样可以通过数据复现出被试进行图片移动的顺序。
fullscreen 让实验进入或退出全屏模式。
html‑audio‑response 呈现HTML内容的刺激并通过麦克风记录被试的语音。
html‑button‑response 呈现HTML内容的刺激并记录被试点击按钮的行为。按钮可以自定义,例如使用图片代替标准的按钮。
html‑keyboard‑response 呈现HTML内容的刺激并记录被试按键。
html‑slider‑response 呈现HTML内容的刺激并记录被试拖动滑动条的行为。
iat‑html 使用HTML刺激的内隐联想测验。
iat‑image 使用图片刺激的内隐联想测验。
image‑button‑response 呈现图片刺激并记录被试点击按钮的行为。按钮可以自定义,例如使用图片代替标准的按钮。
image‑keyboard‑response 呈现图片刺激并记录被试按键。
image‑slider‑response 呈现图片刺激并记录被试拖动滑动条的行为。
initialize‑microphone 请求麦克风录制权限,如果有多个可用设备,会让被试选择使用哪个。
instructions 向被试呈现指导语,并允许被试通过按键或鼠标点击前后翻页。
maxdiff 呈现一系列备选项,被试要从这些备选项中选出两个归入两个互斥的类别中(例如:最重要和最不重要,最喜欢和最不喜欢,最像和最不像,等)。被试通过点击备选项两侧的单选框对其进行归类。
preload 加载图片、音频和视频文件,用于在实验中使用这些文件前将它们加载完成,从而提升计时的精确性,并防止干扰实验的正常进行。
reconstruction 呈现一个可以交互的刺激,被试可以改变其某个参数并观看实时的变化。
resize 对呈现内容进行校正,使得其呈现大小和一个已知的物理尺寸相同。
same‑different‑html 要求被试判断是否相同。首先呈现一个HTML内容的刺激,在一段间隔后,再呈现另一个刺激。被试需要判断两个刺激是否相同。
same‑different‑image 要求被试判断是否相同。首先呈现一个图片刺激,在一段间隔后,再呈现另一个刺激。被试需要判断两个刺激是否相同。
serial‑reaction‑time 屏幕上呈现一些正方形,其中一个会变色。被试需要通过按键尽快指出变色的正方形。
serial‑reaction‑time‑mouse 屏幕上呈现一些正方形,其中一个会变色。被试需要通过点击尽快指出变色的正方形。
sketchpad 创建一个可交互的canvas元素,被试可以通过鼠标或触屏在上面绘制。
survey‑html‑form 渲染一个自定义的HTML表单,允许被试进行多种类型的输入。
survey‑likert 呈现李克特量表。
survey‑multi‑choice 呈现单选题。
survey‑multi‑select 呈现多选题。
survey‑text 呈现题目 + 输入框。被试需要填写回答,然后通过点击按钮进行提交。
video‑button‑response 呈现视频文件,可以自定义播放选项。被试需要通过点击按钮进行反应。
video‑keyboard‑response 呈现视频文件,可以自定义播放选项。被试需要通过按键进行反应。
video‑slider‑response 呈现视频文件,可以自定义播放选项。被试需要通过拖动滑动条进行反应。
virtual‑chinrest 使用Li, Joo, Yeatman, and Reinecke (2020)开发的虚拟的chinrest流程。可以通过被试将屏幕上的图片调整到和一张信用卡大小一致,让那个显示器按照已知的物理尺寸进行显示。随后,会使用盲点任务估算被试到显示器之间的距离。
visual‑search‑circle 根据Wang, Cavanagh, & Green (1994)设计的可以自定义的视觉搜索任务。被试需要指出目标是否出现在其他干扰项之中。刺激在圆周上等距分布,圆心有一个注视点。
webgazer‑calibrate 眼动实验中,校正WebGazer扩展。
webgazer‑init‑camera 眼动实验中,初始化摄像头并让被试把脸放在镜头范围的中央。
webgazer‑validate 验证WebGazer扩展对被试注视的预测的精确性。