Professional Documents
Culture Documents
EMPRESARIAL
SEMINARIO DE TESIS II
Validación de Instrumentos
(09/06/19)
Repetible No repetible
Mediciones repetidas realizadas por una persona sobre el mismo Mediciones repetidas de un operador sobre el
mensurando resultan muy parecidas. mismo espécimen muestran un exceso de
variabilidad.
Reproducible No reproducible
Dos o más personas que miden el mismo objeto obtienen en promedio Dos o más personas que miden las mismas piezas
resultados muy similares. obtienen en promedio resultados sensiblemente
diferentes.
• Hoja de registro
El estudio de la calidad de los datos se realiza con el análisis de validez y confiabilidad delos
instrumentos de recolección de datos.
¿Qué propiedades deben tener estos instrumentos?
Confiables
y Válidos
CÓMO SE SABE SI UN INSTRUMENTO DE RECOLECCIÓN DE DATOS
ES
VALIDO ? CONFIABLE ?
Validez de contenido
Por expertos 1. Medida de estabilidad
2. Método de formas alternativas o paralelas
Validez criterio
Correlaciones 3. Método de mitades partidas.
4. Coeficiente alfa de Cronbach.
Validez de constructo.
Análisis factorial 5. Coeficiente KR-20 Kuder y Richardson
VALIDEZ DE UN INSTRUMENTO
DE RECOLECCIÓN DE DATOS
VALIDEZ DE VALIDEZ DE
CONCURRENTE PREDICTIVA
𝑛 𝑒 − 𝑁 Τ2
𝐼𝑉𝐶 =
𝑁Τ2
Un índice IVC = 0 indica que la mitad de los expertos han evaluado el ítems
como esencial. Los ítems con una bajo IVC serán eliminados.
Lawshe (1975) sugiere que un IVC ≥ 0.29 será adecuado cuando se hayan
utilizado 40 expertos
Para ello han de tomarse en cuenta los criterios especificados anteriormente para la selección,
considerando la formación académica de los expertos, su experiencia y reconocimiento en la
comunidad.
Esto le permitirá al juez evaluar la relevancia, la suficiencia y la pertinencia del ítem. No hay que
dar por sentado que el juez únicamente con la descripción del constructo a medir pueda identificarlo
claramente, ya que, es posible que existan diferentes definiciones de un mismo constructo.
4. Especificar el objetivo de la prueba.
El autor debe proporcionar a los jueces la información relacionada con el uso del
instrumento o prueba, es decir, para qué van a ser utilizados los puntajes obtenidos a
partir Validez de contenido y juicio de expertos de ésta. Esto aumenta la contextualización
del juez respecto a la prueba, incrementando a su vez el nivel de especificidad de la
evaluación; ya que la validez de los ítems está directamente relacionada con su utilización,
por ejemplo, para hacer un diagnóstico o un tamizaje, o evaluar desempeño, entre otros.
5. Establecer los pesos diferenciales de las dimensiones de la prueba.
Esto sólo se hace cuando algunas de las dimensiones tienen pesos diferentes. Por ejemplo,
si una prueba va a ser utilizada para el diagnóstico y asignación a un programa de
rehabilitación de una adicción, se debe dar mayor peso a las dimensiones que midan la
calidad de vida que a las que evalúen personalidad adictiva.
6. Diseño de planillas.
La planilla se debe diseñar de acuerdo con los objetivos de la evaluación
8. Elaboración de las conclusiones del juicio que serán utilizadas para la descripción
psicométrica de la prueba.
ÍNDICE DE ACUERDO ( IA)
Se define como la proporción que existe entre los jueces que coinciden
con la definición propuesta por el autor
𝐀 A: acuerdo y
IA= D: desacuerdos
𝐀+𝐃
S: La sumatoria de si
𝑺
V= si: valor asignado por el experto o juez i
n: Numero de expertos o jueces.
(𝒏(𝒄−𝟏)) c: Número de valores de la escala de valoraciones
La magnitud de este coeficiente va desde 0.00 hasta 1.00; el valor 1.00 es la mayor magnitud posible que indica un perfecto acuerdo
entre los jueces respecto a la mayor puntuación de validez de los contenidos evaluados
Criterio de validez del ítem
En lo que respecta a la proporción de acuerdos que debe existir por cada grupo
de jueces para evaluar la velidez de contenido, encontramos:
• Para un grupo de 5 a 7 jueces, se necesita un completo acuerdo entre ellos
para que el ítem sea válido
• En un grupo de 8 jueces, se requiere que deben estar lo menos 7 jueces en
concordancia para que el ítem sea válido con un nivel de significancia p<0.05.
• En un grupo de 9 jueces, se requiere que deben estar lo menos 8 jueces en
concordancia para que el ítem sea válido con un nivel de significancia p<0.05.
• En un grupo de 10 jueces, se requiere que deben estar lo menos 9 jueces en
concordancia para que el ítem sea válido con un nivel de significancia p<0.05.
En la siguiente Tabla encontramos en primer lugar que los
valores computados para el índice de acuerdo (IA) y el V de
Aiken (V), arrojan resultados similares cuando las respuestas
de los jueces son dicotómicas (C=2), con lo cual comprobamos
que para el caso de los ítem dicotómicos ambas fórmulas son
equivalentes; y en segundo lugar que las probabilidades
asociadas a la prueba binomial (PB) y al V son parecidas, lo
cual confirma la pertinencia del coeficiente V ya que tiene la
facilidad del cómputo del IA y la posibilidad de la
contrastación estadística de la prueba Binomial (PB).
Determinación del número de jueces que deben están de acuerdo con el ítem, para que éste
sea considerado commo válido (Según la Distribución Binomial, debido a que se consideran respuestas
dicotómicas del juez: De acuerdo o En desacuerdo con el ítem )
N° jueces N° Acuerdos Indice de B(n, 0.5) V-Aiken con p_valor =
Criterio de Validez: p<0.05
(n) (x) Acuerdo (IA) P(X=x) C=2: (V) P(X≥x)
5 3 0.6 0.3125 0.6
Un item evaluado con 5 jueces será válido
4 0.8 0.156 0.8
5 1 0.031 1.0 0.031 siempre que los 5 lo valoren como válido
6 4 0.67 0.2344 0.7
Un item evaluado con 6 jueces será válido
5 0.83 0.094 0.8
6 1.00 0.016 1.0 0.016 siempre que los 6 lo valoren como válido
7 5 0.71 0.1641 0.7
Un item evaluado con 7 jueces será válido
6 0.86 0.055 0.9
7 1.00 0.008 1.0 0.008 siempre que los 7 lo valoren como válido
8 6 0.75 0.1094 0.8
Un item evaluado con 8 jueces será válido
7 0.875 0.031 0.9 0.035
8 1 0.004 1.0 0.004 siempre que 7 u 8 lo valoren como válido
9 7 0.78 0.0703 0.8
Un item evaluado con 9 jueces será válido
8 0.89 0.018 0.9 0.020
9 1 0.002 1.0 0.002 siempre que 8 ó 9 lo valoren como válido
10 8 0.8 0.0439 0.8 0.0547 Un item evaluado con 10 jueces será
9 0.9 0.010 0.9 0.011 válido siempre que los 9 ó 10 lo valoren
10 1 0.001 1.0 0.001 como válido
De estos resultados, nos muestran que a medida que se
tengan grupos de jueces más numerosos, se requiere que
la concordancia sea algo menor, sin por ello dejar de ser
válido el ítem evaluado.
El asumir como adecuado el valor del índice de acuerdo
como mayor de 0.80, es solo relativo y depende del
tamaño de la muestra de jueces que se estudia, por lo que
se recomienda se tome en cuenta los resultados
encontrados y aceptar como válido solo los ítem que sean
estadísticamente significativos (con p_valor < 0.05).
Informe de validéz de contenido por el método de Juicio de Experto
Ejemplo de validación con Respetado juez: Usted ha sido seleccionado para evaluar el instrumento __________________ que hace parte de la
investigacion __________________________. La evaluacion de los instrumentos es de gran relevancia para lograr que sean
respuestas dicotómicas de validos y que los resultados obtenidos a partir de estos sean utilizados eficientemente en sus aplicaciones. Agradecemos su
valiosa colaboracion.
los jueces acerca de si ítem
representa o no el Nombres y apellidos del Juez: ____________________________________
Formaci+on académica: _________________________________________
constructo que se pretende Áreas de experiencia profesional : _________________________________
Tiempo: _______ Cargo actual: __________________________________
medir con el indicador Institución: ____________________________________________________
Objetivo de la Investigación: ______________________________________
Objetivo de la Prueba: ___________________________________________
Instrucciones: De acuerdo con los indicadores califique cada uno de los ítems, según si el ítem representa el constructo
contenido en el indicador. (Para cada ítem, valore con 1 si está de acuerdo ó con 0 si está en desacuerdo con la propuesta d e
que ítem mide lo que se desea medir de acuerdo al indicador)
I1 1 1 0 1 1 1 1 1 1 7 0.88 Si
I2 2 0 1 1 0 1 0 1 1 5 0.63 No
I3 3 1 1 0 1 1 1 1 1 7 0.88 Si
.
.
.
IN N 0 1 1 1 1 1 1 1 7 0.88 Si
Total
Resultado global
Promedio de las
V-Aiken > 0.8 Para que un
Cuestionario
sea válido,
todos los
ítems deben
ser válidos
Ejemplo V Aiken para respuestas politómicas de los jueces (C>2)
Grado de acuerdo:
1 = TD Total desacuerdo
2 = D Descuerdo
3=N Neutral
4=A Acuerdo
5 = TA Total acuerdo
Informe de validéz de contenido por el método de Juicio de Experto
Ejemplo de validación con Respetado juez: Usted ha sido seleccionado para evaluar el instrumento __________________ que hace parte
de la investigacion __________________________. La evaluacion de los instrumentos es de gran relevancia
respuestas en escala de para lograr que sean validos y que los resultados obtenidos a partir de estos sean utilizados eficientemente en
sus aplicaciones. Agradecemos su valiosa colaboracion.
Licker de los jueces acerca
Nombres y apellidos del Juez: ____________________________________
de si ítem representa o no el Formaci+on académica: _________________________________________
Áreas de experiencia profesional : _________________________________
constructo que se pretende Tiempo: _______ Cargo actual: __________________________________
Institución: ____________________________________________________
medir con el indicador Objetivo de la Investigación: ______________________________________
Objetivo de la Prueba: ___________________________________________
Instrucciones: Para cada indicador, valore el grado en que el ítem representa el constructo contenido
en el indicador, es decir si ítem permite medir lo que el indicador se propone medir: 1=TD (Total
descuerdo), 1=D (Desacuerdo), 3=(Neutro, Ni en acuerdo ni en desacuerdo), 4= A (De acuerdo) y
5=TA (Ttal Desacuerdo)
Un criterio es una variable distinta del test que se toma como referencia, que
se sabe que es un indicador de aquello que el test pretende medir o que se
sabe que debe presentar una relación determinada con lo que el test pretende
medir. Se denomina coeficiente de validez a la correlación del test con un
criterio externo. (Si el test es para medir el coeficiente de inteligencia, el criterio podría ser el rendimiento académico)
La elección del criterio es el aspecto crítico en este
procedimiento de determinación de la validez, ya que
es muy difícil obtener buenos criterios. Un mismo test
puede tener más de un tipo de validez, es decir puede
estar validado con respecto a varios criterios y los
diferentes coeficientes de validez que resultan pueden
tener valores diferentes
Dentro del concepto de validez de criterio cabe
distinguir a su vez entre:
𝑛 σ 𝑥𝑦 − σ 𝑥 σ 𝑦
𝑟𝑥𝑦 =
𝑛 σ 𝑥2 − σ 𝑥 2
Método común de división por mitades o Hemitest:
Este método computa el coeficiente de correlación entre los
puntajes de las dos mitades del test o cuestionario aplicado. Esto
supone que los dos test mitades son paralelos, tienen igual
longitud y varianza entre sí. Se estima a través del coeficiente de
confiabilidad de Spearman-Brown:
i) Se establece la correlación entre los dos puntajes de las dos
mitades del test a través del método de los puntajes directos,
Correlación r de Pearson:
𝑛 σ 𝑥1 𝑥2 − σ 𝑥1 σ 𝑥2
𝑟12 =
𝑛 σ 𝑥1 2 − σ 𝑥1 2
• ii) Estimación del test completo (Spearman-Brown) con la fórmula:
2 × 𝑟12
𝑟𝑡𝑡 =
1 + 𝑟12
1 − σ 𝑆𝑖2
𝑟𝑡𝑡 =
𝑆𝑡2
• 𝑟𝑡𝑡 ∶ 𝐶𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 𝑜 𝑐𝑢𝑒𝑠𝑡𝑖𝑜𝑛𝑎𝑟𝑖𝑜
• 𝑆𝑖2 ∶ 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑙 í𝑡𝑒𝑚 𝑖
• 𝑆𝑡2 ∶ 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒𝑙 𝑐𝑢𝑒𝑠𝑡𝑖𝑜𝑛𝑎𝑟𝑖𝑜
𝑛 𝑆𝑡2 − σ 𝑝𝑞
𝐾𝑅20 =
𝑛−1 𝑆𝑡2
Rangos delcoeficiente de
Interpretación
confiabilidad
0.81 0.1 Muy alta
0.61 0.8 Alta
0.41 0.6 Moderada
0.21 0.4 Baja
0 0.2 Muy Baja
Ejemplo (Con Excel)
Considere que deseamos medir la confiabilidad de un cuestionario
diseñado para medir el conocimientos de las medidas de Bioseguridad
en los internos de Medicina de los hospitales Las Mercedes (HRDLM) y
Regional de Lambayeque (HRL) durante el 2015. El investigador diseño
un cuestionario con 15 preguntas, después de pasar por el proceso de
validación por expertos, decidió aplicarlo a un total de 84 internos, de
los cuales 48 correspondían al HRDLM y 36 al HRL.
Las preguntas tuvieron un total de entre 3 y 5 alternativas, de las cuales
solo una de ellas era la correcta, de modo que podrían considerarse
como preguntas dicotómicas, verdadera o falsa, por lo que su fiabilidad
será medida con el coeficiente KR-20 de Kuder-Richardson
Formula del coeficiente de Kuder - Richardson
𝑛 𝑆𝑡2 −σ 𝑝𝑞
• 𝐾𝑅20 =
𝑛−1 𝑆𝑡2
Σ Pi.qi = 2.217
Vt = 7.150
KR-20: rtt = 70%
Total = 960
Prom. General = 11.43
Tasa de éxito = 0.762
Ejemplo de validez y confiabilidad con el Análisis
factorial y el Alpha de Crombach
El siguiente ejemplo corresponde al artículo, Elaboración y validación del
cuestionario: “Desempeños profesionales de directivos y profesores en pro de
una educación creativa: Evaluación y autoevaluación desde la perspectiva
docente”. Elaborado por Michelle Mendoza Lira, Profesora de Lenguaje y
Comunicación, Doctoranda de la Universidad Complutense de Madrid, y
publicada en la revista, Docencia e Investigación, N° 21. 2011 con ISSN, 1133-9926.
El trabajo fue realizado en colegios de Valparaiso - Chile
Por lo tanto concluimos que tiene sentido aplicar el análisis factorial para
encontrar los factores que subyacen o que explican la variabilidad de la
muestra.
Confiabilidad
• Los niveles de confiabilidad, obtenidos con el método de Alfa de Cronbach en
cada una de las dimensiones, oscilaron entre 0,911 y 0.934, tal como puede
observarse en la tabla. Estos resultados reflejan un alto índice de consistencia
interna en esta primera parte del cuestionario.
• 1. Rango
• 2. Promedio y Rango
• 3. ANOVA
Método de Promedios y Rango
Instrumento (Equipo): j
Operador: i
1 2 3
X111 X121 X131
X112 X122 X132
A X113 X123 X133
X114 X124 X134
X115 X125 X135
X211 X221 X231
X212 X222 X232
B X213 X223 X233
X214 X224 X234
X215 X225 X235
X311 X321 X331
X312 X322 X332
C X313 X323 X333
X314 X324 X334
X315 X325 X335
X411 X421 X431
X412 X422 X432
D X413 X423 X433
X414 X424 X434
X415 X425 X434
4. Con los datos del formato se procede a calcular el rango de cada
parte del equipo por medio de la ecuación(1).
𝑅 = 𝑋𝑀𝑎𝑥 − 𝑋𝑀𝑖𝑛 … … . . (1)
Instrumento (Equipo): j
Operador: i
1 2 3
X111 X121 X131
X112 X122 X132
A X113 R11 X123 R12 X133 R13
X114 X124 X134
X115 X125 X135
X211 X221 X231
X212 X222 X232
B X213 R21 X223 R22 X233 R23
X214 X224 X234
X215 X225 X235
X311 X321 X331
X312 X322 X332
C X313 R31 X323 R32 X333 R33
X314 X324 X334
X315 X325 X335
X411 X421 X431
X412 X422 X432
D X413 R41 X423 R42 X433 R43
X414 X424 X434
X415 X425 X434
5. Se calcula el rango promedio de cada operador utilizando
1
la ecuación (2) ത
𝑅𝑖 =
𝑟
σ𝑟𝑗=1 𝑅𝑖𝑗 ∀ 𝑖 = 1, … , 𝑚 …….. 2
Instrumento (Equipo): j
Operador: i
1 2 3
X111 X121 X131
X112 X122 X132
A X113 R11 X123 R12 X133 R13
X114 X124 X134
X115 X125 X135
X211 X221 X231
X212 X222 X232
B X213 R21 X223 R22 X233 R23
X214 X224 X234
X215 X225 X235
X311 X321 X331
X312 X322 X332
C X313 R31 X323 R32 X333 R33
X314 X324 X334
X315 X325 X335
X411 X421 X431
X412 X422 X432
D X413 R41 X423 R42 X433 R43
X414 X424 X434
X415 X425 X434
6. Se calcula el rango promedio de todos lo rangos
1
usando la ecuación 3 𝑅 = 𝑚 σ𝑚
ധ ത
𝑖=1 𝑅𝑖 … … . (3)
Nota: Si en algún caso el término de la raíz es un número negativo, entonces la reproducibilidad es cero.
• Interpretación:
• Si %𝑅&𝑅 < 10 entonces el sistema de medición es aceptable
𝐾1 × 𝑅ധ 2.21 × 0.6
% 𝑑𝑒 𝑅𝑒𝑝𝑒𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = %𝑅𝑒𝑝𝑒𝑡𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = × 100 = 45.7%
𝑇 2.9
Operador Instrumento (Multímetro) Tabla 1 Valores de las constantes
1 (Ω) 2 (Ω) 3 (Ω) K1 y K2
300.4 300.1 300.5 N° de ensayos (n) 2 3 4 5
300.6 299.9 300.4 K1 4.56 3.05 2.5 2.21
A 300.41 N° operadores (m) 2 3 4 5
300.8 300.0 300.4
301.1 300.0 300.5 K2 3.65 2.7 2.3 2.08
301 299.9 300.6
2
300.6 300.0 300.4 𝐾1 × 𝑅ധ
ത 2
𝐾2 × 𝑋𝐷 −
300.9 300.1 300.6 𝑛𝑟
B 300.33 % 𝑅𝑒𝑝𝑟𝑜𝑑𝑢𝑐𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 =
300.5 300.0 300.4 𝑇
300.4 299.9 300.6
300.1 300.0 300.5 𝑃𝑎𝑟𝑎 𝑛 = 5 𝐾1 = 2.21 𝑅ധ = 0.60
300.9 300.1 300.4
𝑃𝑎𝑟𝑎 𝑚 = 3, 𝐾2 = 2.7 𝑋ത𝐷 = 0.2333
300.4 299.9 300.5
C 303.1 300.0 300.6 300.57
𝑇𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑖𝑎 𝑇 = 2.9 𝑛= 5 𝑦 𝑟=3
300.6 300.0 300.5
301 300.1 300.4
2.21 × 0.60 2
2.7 × 0.2333 −2
5×3
% 𝑅𝑒𝑝𝑟𝑜𝑑𝑢𝑐𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = × 100 = 18.2%
2.9
Finalmente el porcentaje de la relación entre la repetibilidad y la
reproducibilidad será:
𝑆𝑆𝐴
Operador (A) SSA a-1 𝑀𝑆𝐴 =
𝑎−1
𝑆𝑆𝐵
Partes o equipo(B) SSB b-1 𝑀𝑆𝐵 =
𝑏−1
𝑆𝑆𝐴𝐵
Interacción (AB) SSAB (a-1)(b-1) 𝑆𝑆𝐴𝐵 =
(𝑎 − 1)(𝑏 − 1)
𝑆𝑆𝐸
Error (E) SSE ab(n-1) 𝑀𝑆𝐸 =
𝑎𝑏(𝑛 − 1)
1 𝑋… 2
• 𝑆𝑆𝐵 = σ𝑏𝑗=1 𝑋.𝑗.
2
−
𝑎𝑛 𝑎𝑏𝑛
1 𝑎 1 1 𝑋… 2
• 𝑆𝑆𝐴𝐵 = σ𝑖=1 σ𝑏𝑗=1 𝑋𝑖𝑗.
2
− σ𝑎𝑖=1 𝑋𝑖..2 − σ𝑏𝑗=1 𝑋.𝑗.
2
+
𝑛 𝑏𝑛 𝑎𝑛 𝑎𝑏𝑛
1 𝑎
• 𝑆𝑆𝐸 = σ𝑎𝑖=1 σ𝑏𝑗=1 σ𝑛𝑘=1 𝑋𝑖𝑗𝑘
2
− σ𝐼=1 σ𝑏𝑗=1 𝑋𝑖𝑗.
2
𝑛
𝑋… 2
• 𝑆𝑆𝑇𝑚 = σ𝑎𝑖=1 σ𝑏𝑗=1 σ𝑛𝑘=1 𝑋𝑖𝑗𝑘
2
−
𝑎𝑏𝑛
La repetibilidad del sistema de medida está dado por:
• 𝑟 = 5.15 𝑀𝑆𝐸
donde la constante
5.15 viene de
considerar un
intervalo de
confianza del 99%.
Algunos autores
utilizan el valor 6.
Porcentaje de repetibilidad se calcula por medio de la
siguiente ecuación:
5.15 𝑀𝑆𝐸
• %𝑟 =
𝑇
𝑀𝑆𝐴𝐵−𝑀𝑆𝐸
• 𝐼 = 5.15
𝑛
𝐼
• %𝐼 = × 100
𝑇
• 𝑅&𝑅 = 𝑟 2 + 𝑅2 + 𝐼2
%𝑟&𝑅 = %𝑟 2 + %𝑅 2 + %𝐼 2
Interpretación
1 48.45 2
𝑆𝑆𝐴 = 16.552 + 15.352 + 16.552 − = 0.048
10x2 60
1 48.45 2
𝑆𝑆𝐵 = 2 2 2
3.40 + 6.05 + … . +4.00 − = 2.0587
3×2 60
2
1 2 2
1 2 2
1 2 2
48.45
𝑆𝑆𝐴𝐵 = 1.25 + … . +1.65 − 16.55 + ⋯ + 16.55 − 3.4 + ⋯ + 4.0 + = 0.1037
2 10 × 2 3×2 60
2 1
𝑆𝑆𝐸 = (0.65 + ⋯ + 0.802 ) − 1.252 + ⋯ + 1.652 = 0.0388
2
𝑀𝑆𝐴𝐵−𝑀𝑆𝐸 0.00576−0.00129
• 𝐼 = 5.15 = 5.15 = 0.2434
𝑛 2
• Porcentaje de repetibilidad:
𝑟 0.1851
%𝑟 = × 100 = × 100 = 46.27%
𝑇 0.4
Porcentaje de Reproducibilidad :
0.1555
%𝑅 = × 100 = 38.9%
0.4
Porcentaje de Interacción entre partes y operadores:
𝐼 0.2434
%𝐼 = × 100 = × 100 = 60.9%
𝑇 0.4