Главная СДО » Файлы » Научная деятельность » СДО [ Добавить материал ]

Обработка результатов тестирования и определение качества теста. Олейник

  • Алгоритм составления тестового материала
    • Структурирование учебного материала
    • Установление логических связей между элементами и составление логико-структурных схем.
    • Составление тестовых заданий на базе логико-структурной схемы
    • Выбор оптимальной формы тестовых заданий
    • Составление плана теста
    • Проверка теста на большой выборке испытуемых
  • Обработка тестовых результатов
  • Структура знаний
  • Оценка качества теста
    • Надежность теста
    • Дисперсионный и факторный анализ
    • Интерпретация коэффициента надежности
    • Валидность тестов
      • Валидность по нормальному распределению
      • Валидность по содержанию
      • Валидность по различающей способности
      • Валидность теста и его длина
      • Валидность и расположение заданий
    • Способы валидизации теста
  • Оценка качества теста

Составление теста неотделимо от математической обработки результатов тестирования и определения качества создаваемых тестов. Поэтому эти три проблемы объединены в одной главе и будут рассмотрены одна за другой в той последовательности, какая имеет место в ходе работы по созданию теста. Безусловно, вся эта работа должна начинаться с компоновки проекта теста, который в дальнейшем будет называться Тестовым материалом. Последний, применяя методы математической статистики, предстоит превратить в тест хорошего качества.

Итак, перед создателем теста стоит задача превращения учебного материала в тестовые задания, которые в дальнейшем будут скомпонованы в нечто целое, т.е. в тестовый материал. При выполнении этой работы следует воспользоваться алгоритмом, который приведен ниже. Однако необходимо отметить, что этот алгоритм несколько отличается от того, который был предложен преподавателями исследовательского центра при МИСиС. Составитель настоящего пособия даже на опыте своей короткой работы с тестовым материалом пришел к выводу, что этапы определения трудности заданий и установления их последовательности в тесте будут выполнены автоматически в ходе статистической обработки результатов тестирования. Поэтому нет необходимости вводить их в алгоритм составления тестового материала.

Алгоритм составления тестового материала

Структурирование учебного материала

Приступая к составлению теста для проверки знаний по какому-то предмету, необходимо найти ответ, что такое знание предмета, которое необходимо оценить. Если, например, изучаемая дисциплина состоит из ряда разделов, то в определение понятия "знание предмета” должно включаться знание разделов. Затем вводится понятие "знание раздела”, которое раскрывается через названия тем, входящих в раздел. На следующем этапе структурирования материала вводится понятие "знание темы раздела”, которое в свою очередь формируется из названий параграфов (вопросов), составляющих тему. Выделяют также следующие структурные  элементы учебного материала (в скобках указаны примерные, часто, применяемое изображения некоторых элементов на логико-структурных схемах):

  1. Теории, законы.
  2. Выводы, алгоритмы, правила .
  3. Понятия .
  4. Устройство прибора, установки .
  5. Методы науки: опыт, наблюдение эксперимента, условия наблюдения .
  6. Примеры .
  7. Гипотезы, проблемы.

Установление логических связей между элементами и составление логико-структурных схем.

Выделяются следующие типы логических связей:

  • внутренние ( ),
  • внешние (),
  • перспективные ( ),
  • предшествующие( ).

Затем составляются логико-структурные схемы тем, разделов и всего предмета в целом.

Составление тестовых заданий на базе логико-структурной схемы

На логико-структурной схеме выделяются те структурные элементы и логические связи между ними,- знание которых необходимо проверить при помощи теста.„Выделенные элементы и составят содержание тестовых заданий.

Выбор оптимальной формы тестовых заданий

Наиболее-оптимальным вариантом теста является такой, который состоит из заданий одной формы. Если тест предназначен для проверки знаний по одной теме и состоит из заданий одной формы, то он является гомогенным и по форме и по содержанию. Те тесты, которые охватывают различные темы или даже дисциплины и составлены из заданий различной формы, являются гетерогенными по форме и содержанию.

Исходя из поставленной задачи, преподаватель волен выбрать, и форму задания, и форму теста. Например, если надо провести входной контроль только по неорганической химии, то следует выбрать закрытую форму заданий как наиболее простую и легкую. Составленный тест, следовательно, будет гомогенным и по форме, и по содержанию. Если же входной контроль надо провести по физическим методам исследования в химии, то тест должен содержать задания по химии, физике и математике. Однако форма этих заданий должна быть также самой простой, т.е. закрытой, и тест будет гомогенным по форме, но гетерогенным по содержанию. Если же надо составить тест для итогового контроля по всему предмету после завершения его изучения, то такой тест целесообразно составить из заданий всех известных форм, так как надо проверить и знания, и умения, и навыки.

Составление плана теста

Оптимальное количество тестовых заданий в тесте может колебаться от 30 до 60 при времени тестирования 10-20 минут. Проводят предварительную раскладку заданий по разделам курса, состоящего, например, из 4 разделов, главным из которых является 3-й. Раскладка представлена в табл. 2.1.

Таблица 2.1 Распределение тестовых заданий по разделам

Разделы дисциплины
Количество заданий
Процент к общему числу
I
12
20
II
18
30
III2440
IV610
Итого60100

В ходе контроля, например, надо проверить умение давать определения /А/, знание формул, законов и принципов /Б/, умение применять знание законов, формул и принципов для решения задач и примеров /В/, умение находить сходство и различие, недостатки и достоинства /Г/, умение представлять материал на графиках и схемах /Д/. Поэтому раскладку заданий конкретизируют по этим умениям (табл. 2.2)

Таблица 2.2 Раскладка заданий теста по видам знаний и умений

Знания, умения и процент заданий в тесте
Номер разделов, процент и число заданий
Всего для проверки каждого умения
I-20%
II-30%
III-40%
IV-10%
A — 10%
1
2
2
1
6
Б — 30%4
5
7
1
17
В — 30%4
5
7
2
18
Г — 20%2
4
5
1
12
Д — 10%1
2
3
1
7
Итого
12
18
24
6
60

Поскольку в ходе математической обработки примерно 2/3 всех заданий будут забракованы как непригодные, то необходимо с самого начала составить тестовых заданий в 3 раза больше, чем требуется в тесте. Таким образом, для теста длиной в 60 заданий предварительно надо составить около 180 заданий.

Проверка теста на большой выборке испытуемых

К обработке результатов тестирования не следует приступать, пока не наберется достаточно большая выборка испытуемых, составляющая примерно 100-150 человек. Составляется матрица тестовых результатов, пример которой для тестового материала из 12 заданий, проверенного на выборке из 10 испытуемых, представлен в табл. 2.3. Конечно, требование к количеству испытуемых здесь не соблюдено ради экономии места. Для оценки знания здесь использована дихотомическая шкала: 1 – знает, 0 – не знает.

Таблица 2.3 – Матрица результатов тестирования


Обработка тестовых результатов

Представленная в табл. 2.3 матрица результатов  тестирования является неупорядоченной, ибо в ней и испытуемые и задания расположены в случайном порядке. Эту матрицу следует прежде всего упорядочить. Для этого испытуемых надо расположить в таком порядке, чтобы их суммарный балл увеличивался сверху вниз, а задания в свою очередь расположить так, чтобы число правильных ответов на задание Rj понижалось слева направо. При этом из тестового материала сразу выбрасывают те задания, которые не служат цели дифференцирования знаний студентов и являются в этом отношении бесполезными. В данном случае такими заданиями являются второе и седьмое задания. Задание № 2 слишком легкое и на него ответили все испытуемые, задание № 7 слишком трудное, и на него никто не ответил. Получившаяся упорядоченная матрица представлена в табл. 2.4.

Помимо уже известных, в табл. 2.4 применены следующие обозначения:

  • Индексы i и j относятся соответственно к испытуемому и к заданию;
  • Wi- число неправильных ответов на j задание;
  • N – число испытуемых;
  • k – число заданий в тесте;
  • Pj =  Rj / N – доля правильных ответов на j задание;
  • qj = Wj / N – доля неправильных ответов на j задание;
  • pj, qj – дисперсия j задания;
  • – стандартное отклонение результатов испытуемых по j заданию.

Обе последние величины представляют собой показатель вариации трудности задания, которую мы обозначаем как βj.

Из таблицы 2 видно, что в оставшемся тестовом материале имеется два задания, №6 и №7, которые имеют одну величину Rj, что указывает на их одинаковую трудность. Два одинаковых по трудности задания не должны входить в один тест, но только при условии, что они контролируют один и тот же учебный вопрос (тему, раздел). Если же они относятся к различным разделам, и в тесте, кроме них, нет других заданий, контролирующих эти области знания, то такие задания обязательно надо оставить.

Таблица 2.4. Упорядоченная матрица тестовых результатов (заданиям, как и испытуемым, присвоены новые номера. Подчеркнуты ошибочные, стоящие не на своем месте оценки)


После упорядочения матрицы тестовых результатов вычисляют следующие величины:

  • X – средний арифметический балл по всем испытуемым:
  • SSI – сумма квадратов отклонений по результатам испытуемых:

  • – дисперсия результатов испытуемых;

  • – стандартное (среднеквадратичное) отклонение результатов испытуемых от .

При нормальном распределении результатов тестирования .

В нашем случае .

Последнее, очевидно, связано с тем, что здесь использована очень малая выборка испытуемых, явно недостаточная для проверки применимости закона нормального распределения.

Следующим обязательным шагом при обработке тестовых результатов является вычисление показателей связи тестовых заданий как между собой, так и с суммой тестовых баллов испытуемых Xi. В пособии Аванесова описаны три таких показателя, но здесь будет использован только один обычный коэффициент корреляции Пирсона:

где

  • х и у – параметры, показатель связи которых между собой рассчитывается;
  • SPxy – сумма произведений отклонений от средних  значений по x и y;
  • SSx и SSy – сумма квадратов отклонений по .

Допустим, надо найти – коэффициент связи 5-го задания c суммой тестовых баллов для каждого испытуемого хi . Тогда xi = y, а SSy = 68,90.

По той же формуле (2.5) рассчитываются коэффициенты корреляции заданий между собой. Например, для связи 5-го задания с 6-м уравнение (2.5) записывается в виде:

Коэффициенты корреляции r здесь представляют собой коэффициенты валидности заданий, характеризующие их пригодность для поставленной цели – дифференциации знаний испытуемых. Все рассчитанные значения r сводятся в корреляционную матрицу, которая для приведенного здесь примера (табл. 2.4) представлена в табл. 2.5. Матрица квадратная, поскольку число строк и столбцов равно числу заданий, а их номера соответствуют номерам заданий в табл. 2.4

Представленные в табл. 2.5 коэффициенты корреляции позволяют произвести объективную выбраковку заданий. Все те задания, для которых коэффициент связи задания с суммарным тестовым баллом испытуемых меньше или равен нулю, несостоятельны и непригодны для контроля знаний, поэтому их надо выбрасывать не только из создаваемого теста, но и существенно переделывать и улучшать. Задания же, для которых , являются кандидатами на удаление из теста, но не надо спешить удалять их из теста. Может так оказаться, что других заданий в тесте с подобным содержанием нет, и, если это задание выбросить, то окажется, что в тесте по целому разделу (теме, вопросу) образовался пробел. Итак, если тестовое задание уникально, то его стоит в тесте оставить, если даже rxy = 0,1.

По величинам видно, что 3-е и 8-е задания теста из 10 являются наименее пригодными для контроля знаний испытуемых и являются кандидатами на удаление их из теста.

Eщё больше информации дают коэффициенты, характеризующие степень связи заданий между собой. Как видно из табл. 2.5, на плохое качество заданий № 3 и 8 указывает наибольшее количество отрицательных коэффициентов в колонках, относящихся к этим заданиям. Средние значения также являются мерой качества задания. Если < 0,3, то такие задания имеют очень плохое качество. К таким как раз и относятся задания  №3 и №8.

Таблица 2.5. Корреляционная матрица по результатам обработки данных таблицы 2.4.


Наглядно это обстоятельство характеризуют коэффициенты детерминации характеризующие меру связи данного задания со всей матрицей, которую можно выразить в процентах ( * 100) .

Если  < 0,3, то  * 100 < 9%, и такое задание плохо связано со всей матрицей и должно быть выключено.

Даже внешний осмотр упорядоченной матрицы, представленной в табл. 2.4, без детального анализа расчетов дает ценную информацию о качестве заданий. Одним из показателей качества заданий является их состоятельность, как и состоятельность испытуемых, о которых можно судить по количеству ошибок в столбцах (состоятельность заданий) и строчках (состоятельность испытуемых).

Визуальный осмотр матрицы показывает, что она состоит из двух треугольных матриц, одна из них (верхняя правая) состоит практически из одних нулей, другая (нижняя левая) – из одних единиц. Между указанными треугольными матрицами имеет место достаточно четкая граница. Однако для обеих матриц наблюдаются нарушения, т.е. имеются оценки (подчеркнуты), которые находятся не на своих местах. Чем больше таких нарушений, тем хуже качество теста в целом. Если же анализировать отдельные задания или, отдельных испытуемых, то можно сделать следующие выводы:

  1. Самый слабый студент выполнил 8-е, одно из самых трудных заданий, следовательно, несостоятельно само задание.
  2. Один из самых сильных студентов "Величко" не выполнил 3-е задание, хотя он же выполнил остальные семь более трудных заданий. Очевидно, что несостоятельно задание. Обращает на себя внимание, что нарушения в этих случаях далеко отстоят от границы между треугольными матрицами, что лишний раз указывает на несостоятельность заданий, а не студентов. Кроме того, эти два вывода соответствуют заключению, вытекающему из анализа величин r.
  3. Студент Рябко не выполнил 6-е, но выполнил 7-е, наиболее трудное задание, но поскольку оценка 1 примыкает к столбцу единиц, а оценка 0 – к столбцу нулей, то, очевидно, здесь виноват студент, а не задание. Возможные причины вины студента – либо списал, либо имеет неуверенные знания в пограничной области.
  4. Еще более несостоятельной является студентка Окатова, оценки которой нелогично расположены: ее ответы несостоятельны (скорее всего списала или угадала).

Проанализировав тестовые результаты указанными выше способами, с целью улучшения качества создаваемого теста проводят чистку упорядоченной матрицы тестовых результатов: из нее исключают не только несостоятельные задания, но и несостоятельных испытуемых. Если удаление заданий легко обосновать, то удаление испытуемых обосновать значительно труднее, ведь их так просто из учебной группы (класса) не исключишь. Поэтому при исключении испытуемых из тестовых результатов пользуются следующим правилом: из матрицы тестовых результатов исключают не более 5 %,  а еще лучше не более 1% испытуемых. Это, с одной стороны, позволяет защитить тест от очень несостоятельных студентов, но с другой также от искусственного завышения качества теста за счет исключения испытуемых, поведение которых не вписывается в рассматриваемую схему.

После чистки матрицы 2.4 получают улучшенную матрицу тестовых результатов 2.6, для которой повторяют всю математическую обработку. Корреляционная матрица после чистки тестовой матрицы представлена в табл. 2.7. Даже поверхностное сравнение корреляционных матриц 2.7 и 2.5 показывает, что окончательный тест из 8-ми заданий стал существенно качественнее, чем первоначальный тестовый материал. Об этом свидетельствуют величины (средние значения средних коэффициентов корреляции для всех тестовых заданий), представленные в табл. 2.5 и 2.7.

Таблица 2.6. Упорядоченная матрица тестовых результатов после удаления несостоятельных заданий и испытуемых


Таблица 2.7. Корреляционная матрица теста после удаления несостоятельных заданий и испытуемых


Структура знаний

Тест позволяет не только определить уровень знаний испытуемых, но и качественно оценить структуру знаний. Структура знаний – это характер знаний, их полнота, систематичность. Она позволяет более эффективно оценить результаты труда педагога, выявить, что студент не знает и почему, определить студентов с антизнанием. Без всего этого педагог работает вслепую и не может корректировать .учебный процесс в направлении повышения его эффективности. Тот, кто это делать не может, не может быть хорошим педагогом.

Структуру знаний характеризует профиль знаний. Например, четыре студента, ответив на тест из 10 заданий, получили суммарный тесто вый балл, равный 5. Однако, студенты имеют разные профили знаний:

СтудентПрофильХарактер
1
1  1  1  1  1      0  0  0  0  0правильный
2
0  0  0  0  0      1  1  1  1  1неправильный (антизнания)
3
0  1  0  1  0      1  0  1  0  1неправильный
4
1  0  1  0  1      0  1  0  1  0
несистематичные знания (аварийщики)

За рубежом, особенно в Японии, педагоги обращают внимание не столько на уровень знания, сколько на профиль. Там учебный процесс формируется таким образом, чтобы пробелов в знаниях не было. Правильный профиль не требует пояснений. Обучаемый, обладавший антизнаниями (знает ответы на трудные вопросы и не знает – на легкие), заслуживает того, чтобы педагоги обратили на него внимание и не только выявили причины такого его состояния, но и составили для него индивидуальную программу обучения.. Но среди этих четырех особое беспокойство вызывают 3-й и 4-й студенты, показывающие несистематические знания. Это аварийщики, именно такие специалисты и привели к аварии Чернобыльскую АЭС.

Причину каждого неправильного профиля надо анализировать и добиваться ее устранения. Нет сомнения, что неправильный профиль может быть связан с двумя видами причин:

  1. студент и его знания;
  2. тест и его надежность.

Если окажется, что по какому-то заданию множество студентов (>10%) дают неправильный профиль (по другим заданиям профиль правильный) то такие задания надо исключать из теста, несмотря на хорошие коэффициенты корреляции.

Структуированность профиля знаний испытуемых характеризуется числом правильности, профиля или оценкой осторожности (в отношении к уровню знания), которая вычисляется по уравнению:

где

  • xi – тестовый балл испытуемого,
  • Rj – число правильных ответов на j -e задание,
  • k – число заданий,


Такие расчеты можно продемонстрировать на примере следующих тестовых результатов, полученных на выборе из 29 испытуемых для теста из 6 заданий и представленных в табл. 2.8.

Примеры расчетов:


Если Ci=0, то к профилю знаний полное доверие, если же Ci=1 – то полное недоверие. Величину 1-Ci называют индексом структуры знаний, который можно использовать для корректировки тестового балла на неправильный профиль: Хс = Xi(1-Ci).

Например, для 5-го студента: Хс = 4 (1 - 0,56) = 1,76 ≈ 2.

Таблица 2.8. Упорядоченная матрица тестирования на выборке из 29 человек


Оценка качества теста

Научно-обоснованный тест – это инструмент измерения, соответствующий установленным стандартам надежности и валидности, определяющим качество теста. Только качественный тест обеспечивает качественный контроль знаний и позволяет составить качественные индивидуальные программы обучения. Валидность теста характеризует пригодность теста для достижения поставленной педагогом цели. В нашем случае – пригодность для дифференциации знаний испытуемых. Надежность же теста связана с точностью измерения уровня знаний.

Надежность теста

Существует множество способов определения надежности.

Способ 1

Вычисление коэффициента корреляции Пирсона между двумя параллельными тестами на одной и той же выборке испытуемых. Метод был бы прекрасен, если бы не имел существенных недостатков:

  1. повторная проверка знаний по одному и тому же вопросу связана с лишней психологической нагрузкой учащихся и их переутомлением;
  2. создание параллельных тестов – дело чрезвычайно трудное, ибо истинно параллельные тесты практически нереальны.
Способ 2

Корреляция между повторными испытаниями через определенное время одного и того же теста на той же группе. Недостатки очевидны.

Способ 3

Корреляция тестовых результатов и экспертных опенок. К перечисленным уже недостаткам в этом случае добавляется еще необходимость организации группы экспертов, что увеличивает нагрузку преподавателей.

Другие приведенные ниже методы более удобны.

Способ 4

Расчет коэффициента корреляции по формуле Спирмана-Брауна:

Где rk — коэффициент корреляции между двумя половинками теста. Чтобы обе половинки теста удовлетворяли условию параллельности корреляцию необходимо проверить между четными и нечетными заданий. Пример расчета по этому способу дан ниже для тестовых результатов (табл. 2.4).

Эти данные формируются в две параллельные группы, как это показано в табл. 2.9.

Таблица 2.9. Применение формулы (2.7) к данным табл.2.4

Испытуемые
Сумма баллов по заданиям
X2
Y2
XY
Вектор ошибок
E, E = X - Y
E2
Четным
Нечетным
Майков
1
0
1
0
0
1
1
Попов
1
1
1
1
1
0
0
Шушкин
1
2
1
4
2
-1
1
Окатова
1
2
1
9
3
-2
4
Боброва
2
2
4
4
4
0
0
Совков
2
2
4
4
4
0
0
Рябко
2
4
4
16
8
-2
4
Иванов
3
4
9
16
12
-1
1
Величко
5
4
25
16
20
1
1
Алиев
4
5
16
25
20
-1
1
Всего:
22
27
66
95
74
-5
13



Тест достаточно надежен, поскольку .

Способ 5

где

  • – дисперсия ошибок,
  • – дисперсия баллов по всему тесту.

Дисперсия ошибок вычисляется по уравнениям:


По данным табл. 2.9


Предложенные выше методы определения надежности основаны на допущениях параллельности и эквивалентности, что далеко не всегда выполняется. Вот почему были найдены методы, которые основаны только на фактах без всяких допущений.

Способ 6

где

  • k – число заданий,
  • – среднее значение средних величин коэффициентов корреляции.

Для тестовой матрицы 2.4:


Интересно сравнить, как изменяется надежность теста после удаления двух несостоятельных заданий и одного испытуемого. По данным табл. 2.7:


Увеличение rHT было бы еще заметней, если бы число заданий было большим. Например, если k=20, то при том же значении rHT = 0,942. Отсюда вытекает очень важный вывод, что надежность теста возрастает по мере увеличения его длины. Но длину теста нельзя увеличивать до бесконечности по вполне очевидным причинам, она должна быть разумной. Оптимальна длина тестов, которые испытуемые охотно выполняют – 40-60 заданий.

Способ 7

Формула KR-20 (авторы Kuder, Richardson, 20-й вариант их формулы):


где

  • k – число заданий в тесте,
  • – сумма дисперсий испытуемых.

Для данных в табл. 2.4 = 1.98,   при k = 10, откуда rHT = 0,837. Формула позволяет избежать дополнительных вычислений.

Для недихотомической шкалы оценок (например, семи или пятибалльной) имеется своя формула надежности:

где – сумма дисперсий заданий теста, дисперсия суммарных баллов . Пример такого расчета приведен в табл. 2.10, в которой сведен рейтинг в семибалльной шкале (например, сумма баллов семи экспертов) по восьми видам общественной нагрузки (шефская помощь, выступление на собраниях, участие в субботниках и т.д.)

Таблица 2.10. Расчет коэффициента надежности рейтинга общественной нагрузки



Способ 8. Надежность теста по Гутману


где – сумма ошибочных элементов упорядоченной матрицы тестовых результатов.

Например, для представленной в табл. 2.4 упорядоченной матрицы (общее число подчеркнутых элементов). Отсюда:


Таким образом, как видно, вычисленные различными способами коэффициенты надежности для одного и того же теста различны. Поэтому возникает вопрос, какое же значение коэффициента надежности истинно. Ответ может быть только один: никакое! Ибо нельзя знать точно величину ошибки измерения, но всегда можно получить оценку вероятного значения rHT, что и было выполнено различными способами. Поэтому всегда важно вычислить rHT различными способами. Если rHT вычисленные различными способами, сходны-, то тест надежен (если rHT>0,8). Если же вычисленные значения сильно различаются, то тест не отвечает нужным требованиям, надо искать причину его низкого качества.

Для оценки надежности тестов разработаны и другие методы, основанные на применении дисперсионного и факторного анализа.

Дисперсионный и факторный анализ

Не вдаваясь в теорию дисперсионного анализа, затронем лишь практическую сторону его применения для оценки надежности теста. Алгоритм расчета сводится к нескольким этапам:

  1. Нахождение SSt – суммы квадратов отклонений баллов всех испытуемых по всем заданиям от средней арифметической по тесту в целом (обшей вариации по всему тесту):


    Дисперсия:


    Для табл.2.10:

  2. Нахождение SSw суммы квадратов отклонений суммы баллов испытуемых по каждому заданию отдельно  (вариации только по заданиям теста):

    Для рассматриваемой в табл. 2.10 тестовой матрицы:


  3. Нахождение SSB суммы квадратов отклонений суммы баллов заданий по каждому испытуемому (вариации только по ответам испытуемых):

    Для тех же экспериментальных данных:

  4. Определение остаточной вариации SSост (вариации ошибок) – суммы квадратов отклонений от средней ошибки:


    Дисперсия ошибок:

  5. Вычисление коэффициента надежности:


  6. Нахождение индекса гомогенности теста:

    Чем выше индекс гомогенности, тем гомогеннее тест.

Все эти вычисления надежности применимы только к гомогенным тестам. Но тесты часто бывают гетерогенными. Их надежность проверяется с помощью факторного анализа. Факторный анализ требует достаточно сложной системы расчетов, которая оформлена в виде программы для ЭВМ и которую невозможно изложить в безмашинном варианте. Говоря о факторном анализе, необходимо отметить, что всегда стремятся свести анализ к возможно меньшему числу факторов. Например, успеваемость можно поставить в зависимость от таких факторов, как пол, жизненные условия, тип оконченной школы (сельская, городская, специальная), время окончания школы и т.д. При анализе может оказаться, что какие-то факторы влияют на уровень знаний, другие – нет.

Интерпретация коэффициента надежности

Надежность теста связана с ошибкой измерения соотношением:


где
  • – среднеквадратичное отклонение ошибки,
  • – среднеквадратичное отклонение результатов тестирования.

Исходя из стандартного отклонения ошибки , вычисляется доверительный интервал тестовых баллов:

где t – критерий значимости статистики (коэффициент Стьюдента).

Его находят из статистических таблиц. Например, при N>120 и р=0,95  t=1,96. Здесь р – надежность, т.е. вероятность риска допустить ошибку. При  р=0,95 имеется риск допустить ошибку измерения,. превышающую доверительный интервал, в 5 случаях из 100.

Валидность тестов

Качество педагогического контроля зависит не только от надежности инструмента измерения, но и от его валидности. Однако в отличие от надежности, определение которой сводится к выбору одной из множества изложенных выше расчетных схем, обоснование валидности теста представляет задачу методологического характера. Процесс валидизации начинается с уточнения цели и конкретных задач педагогического контроля. Если ставится цель проверить знания студентов по определенной дисциплине и при этом неважно, каким методом это будет сделано, то легко понять, что эта цель будет достигнута с помощью зачетов, экзаменов, курсовых и дипломных работ и т.п. Эти методы неравноценны с точки зрения временных затрат, объективности и качества оценки, и потому вопрос о валидности легко переводится в прагматическую плоскость оценки сравнительной пригодности того или иного метода для достижения поставленной цели.

Валидность по нормальному распределению

Валидность любого теста можно и нужно оценивать с позиций нормативного типа мышления, при котором любой результат должен быть соотнесен с нормой. Если нет нормы, то трудно сказать, что означает, например, полученный испытуемым Ивановым в каком-нибудь тесте балл 35 – хорошо это или плохо, Если же известно, что нормой является 25 баллов, то оценка 35 принадлежит одному из лучших студентов. В тестовой практике за норму берется средняя арифметическая, результатов тестирования. На требованиях.к норме мы не будем останавливаться, ибо нормирование будет иметь значение при межвузовском контроле знаний и проблема становится актуальной только при разработке тестов для межвузовского контроля.

Тест считается валидным, если средний результат тестирования присущ, большей части учащихся, а сами результаты распределяются по нормальному закону. Нормальность распределения достигается путем варьирования числа легких и трудных заданий в тесте. Валидный тест должен содержать подавляющую долю заданий средней трудности, но он обязательно должен иметь и откровенно легкие задания, которые не решает 1 из 100 или даже 1 из 1000 испытуемых, и откровенно трудные задания, которые решает 1 из 100 или 1 из 1000 испытуемых. Валидность теста по распределению легко достигается путем замены заданий, нарушающих нормальность распределения.

Валидность по содержанию

Если перед тестом стоит цель оценить знание предмета, то задания теста должны охватывать хотя бы все разделы и темы предмета. Когда начинают обрабатывать тест, то зачастую в нем образуются провалы по содержанию, т.е. могут исчезнуть отдельные темы и даже разделы. Перед создателем теста стоит трудная задача заполнить эти пробелы. Ведь при этом необходимо не только втиснуть в задание нужное содержание, но и придать ему ту трудность, которая необходима. Для соответствующего места задания в тесте. При этом задание должно еще и обладать высокой различающей способностью.

Валидность по различающей способности

Задача теста – дифференцировать студентов по уровню знаний. Чем выше дифференцирующая способность теста, тем выше его валидность. Чтобы повысить валидность теста, нужно ввести в него задание с высокой различающейся способностью (РСЗ).

Определить РСЗ можно путем вычисления коэффициентов корреляции ответов по каждому заданию с суммой баллов для всех студентов, как это было показано в разд. 2.2.Если r>0,3, то задание обладает достаточной РСЗ.

Другой способ определения РСЗ состоит в следующем. Проводится предварительное тестирование достаточно большой выборки испытуемых (N>100), например, при входном контроле, которое при условие нормального распределения результатов позволяет отобрать по 27 %  испытуемых в худшую и лучшую группы. Тогда:


где и – доли правильных ответов в лучшей и худшей группах:


Здесь n – число правильных ответов.

Различающую способность теста можно повысить следующими способами.

  1. Регулирование по времени тестирования. Ограничение времени тестирования сильно влияет на результаты тестирования. В связи с этим введем два понятия:
    • тестирование с ограничением времени – такой контроль, при котором ни одному испытуемому не удается ответить на все задания;
    • тестирование без ограничения времени – когда 95 %  испытуемых успевают попробовать ответить на все задания. Обычно выбирают среднее время, при котором стандартное отклонение результатов испытуемых наибольшее.
  2. Правильное комплектование групп. В группах должны быть и слабые, и сильные обучаемые, но доля людей со средними возможностя­ми должна быть преобладающей.
  3. Оптимальный подбор заданий. В тесте должны быть задания всех уровней трудности, точное их количество зависит от конкретных об­стоятельств, но всегда доля заданий средней трудности должна быть наибольшей.
Валидность теста и его длина

С увеличением длины теста растет его теоретическая надежность. Но на практике после какой-то определенной (оптимальной) длины и надежность, и валидность теста начинают падать вследствие и усталости испытуемых, и возникающих организационных проблем (организация перерывов и других мероприятий). Поэтому оптимальная длина теста – 40-60 заданий.

Существуют различные формулы, связывающие длину и надежность теста.

  1. Формула Спирмана-Брауна позволяет предсказать надежность теста , которая будет получена после увеличения длины теста в n раз при имеющейся надежности rHT.

  2. Другой вариант формулы для связи длины и надежности:

    где
    • n – число, указывающее во сколько раз нужно удлинить тест, чтобы получить надежность rq;
    • rq и rK – надежности длинного и короткого тестов.
Валидность и расположение заданий

Существует несколько способов расположения заданий в тесте: в порядке возрастания трудности, расположение по спирали, случайный и специальный порядок.

Наиболее валидным в случае гомогенного теста является расположение заданий в порядке возрастания трудности, в гетерогенном – расположение по спирали: сначала находятся наиболее легкие задания по разным дисциплинам, затем задания следующего уровня трудности. Например, для теста по четырем дисциплинам (А, В, С, Д) спиральное расположение заданий будет выглядеть следующим образом:

A1B1C1D1A2B2C2D2A3B3………………AnBnCnDn,

где индекс внизу соответствует уровню трудности задания.

Случайный порядок наиболее валиден в психологических тестах. На специальном порядке мы останавливаться не будем.

Способы валидизации теста

Из различных способов определения валидности теста остановимся на одном, наиболее часто применяемом. Это сравнение результатов тестирования с результатами экспертной оценки. Для примера можно привести два следующих варианта этого метода:

  1. Например, ставится задача создать тест для отбора курсантов в летное училище. Проверять создаваемый тест на самих курсантах нет смысла, ибо, во-первых, неизвестно, какие получатся летчики (ни один летчик не должен быть плохим при таком отборе), а, во-вторых, долго ждать результатов. Поэтому сознаваемый тест дается летчикам во время переаттестаций, профессиональные умения которых так или иначе должны оцениваться экспертами. Если результаты тестирования хорошо коррелируются с экспертной оценкой, то такой тест валиден, т.е. он пригоден для отбора курсантов в летное училище.
  2. Многие преподаватели ставят под сомнение возможность приме­нения тестов для контроля знаний. Поэтому многократно ставился эксперимент, в соответствии с которым проводилась корреляция резуль­татов тестирования с экспертной оценкой группы опытных преподавате­лей устных (письменных) ответов по тем же вопросам, что и в тесте, одной и той же выборки испытуемых. Если тест составлен правильно, то коэффициенты корреляции получаются неизменно высокими. Таким образом, надежность оценки знаний тестом по крайней мере не ниже, чем у экспертов. Но тест дает ряд преимуществ: объективность, резкое сокращение времени на проверку, охват всего материала в одной проверке и освобождение преподавателя для творческой работы.

Оценка качества теста

Качество теста оценивают отдельно по надежности и валидности, сравнивая экспериментальные данные с требованиями, представленными в табл. 2.11.

Так же, как нет единой, раз навсегда установленной, надежности теста, так нет и единой валидности теста. В научных публикациях наряду с информацией о коэффициенте валидности теста, необходимо сообщать о способе его валидизации.

Таблица 2.11. Требования к надежности и валидности тестов

©  Н.М. Олейник. Фрагмент из учебного пособия по спецкурсу: "Тест как инструмент измерения уровня знаний и трудности заданий в современной технологии обучения. Донецкий государственный университет".

Похожие материалы:

Добавил: COBA (13.01.2013) | Категория: СДО
Просмотров: 26134 | Загрузок: 0 | Рейтинг: 5.0/1 |
Теги: тест, надежность теста, валидность теста, качество теста, тестирование, Олейник, структура знаний, составление теста
Комментарии (0)

Имя *:
Email *:
Код *: