Ajuste de curvasAjuste de curvas
Métodos de ajuste de curvas: regresión lineal y no lineal
Fco. Javier Burguillo Universidad de Salamanca
Tema 8
Ajuste de curvasAjuste de curvas
Antecedentes Bibliográficos
Diseño de experimentos
Obtención datos, calibrados, etc.
Exploración de datos
Análisis : tests estadísticos, ajuste de curvas
Etapas de una investigación
Ajuste de curvasAjuste de curvas
[S] : 1.2 5.2 6.3 7.2 9.4
v : 4.3 5.4 7.2 8.4 9.5
Ajuste de curvasAjuste de curvas
v
[S]
v = f[S]
Modelo Empírico2c[S]b[S]a v
Modelo Teórico
[S]K
[S]Vv
EPESSE
M
max
En matemáticas: y = f(x)
Ajuste de curvasAjuste de curvas
2cxbx a yPolinomios • Datos sin mucho ruido, curvas suaves• Cuidado porque son demasiado flexibles (hiperajuste)
• Adecuados para datos con ruido en calibración• Subjetividad al elegir el nº de nudos (hiperajuste)
Modelos empíricos (y = f(x))Modelos empíricos (y = f(x))
i)32 dxcxbx (a ysplines Cubic
Nudo 1
Nudo 2
Nudo 3
Ajuste de curvasAjuste de curvas
Ejemplo de ajustes por cubic splines Ejemplo de ajustes por cubic splines (para comparación de curvas: áreas, (para comparación de curvas: áreas,
pendientes...)pendientes...)
Área bajo la curva 1 (B1) = 2.69E+00 Área bajo la curva 2 (B2) = 2.63E+00 Integral |curva1 - curva2| (AA) = 2.62E-01
Porcentaje de diferencias entre las curvas: 100*AA/(B1 + B2) = 4.92 %
Ajuste de curvasAjuste de curvas
En ecuaciones algebraicas
[L] ][M
][MK
[L] ][M
][MK
1
22
0
1 1
+ L + L
K1 K2
)[L]KK [L]K 2(1[L]K2K [L]K
y 2211
2211
fracción de sitios ocupados
0M 1M 2M
En ecuaciones diferenciales
E* + S E*S
E P
etc ...........
[ES*]kdt
d[P]
)[ES*]k(k -[S][E*]kdt
d[ES*]
cat
cat 1- 1
E
Modelos teóricosModelos teóricos
LipasaBinding
Ajuste de curvasAjuste de curvas
Ecuaciones de interés en Biomedicina
[L]KKK..... [L]KK [L]K n(1 [L]KKnK..... [L]K2K [L]K
y
[S] K[S]V
[S] K[S]V
v
e[A]e[A][A]
nn2.....1
2211
nn2.....1
2211
m(2)
max(2)
m(1)
max(1)
t-k2
t-k1
21
)
Decaimientos exponenciales:
Suma de Michaelis-Menten:
Unión de Ligandos a macromoléculas:
Curvas de crecimiento y curvas dosis-respuesta (modelo Logístico):
kxBeA
y
1
Ajuste de curvasAjuste de curvas
Otras ecuaciones algebraicas
Ejemplos :
[A][B] A]KA]K[A][B]V
v :Bi Bi Pong Ping
[S]
K ] I [
1K
[S]Vv :acompetitiv Inhibición
A B
max
I
m
max
[[
De dos variables y varios parámetros :
) .....p ,p ,py, x, ( f ) yx, ( u n21
Ajuste de curvasAjuste de curvas
Ejemplos2cxbxay
-kxAey bxay
(Lineal en variables, lineal en parámetros)
(No lineal en variables, lineal en parámetros)
(No lineal en variables, no lineal en parámetros)
x
Linealidad en las variablesEcuación lineal Ecuación no lineal
y y
x
Linealidad en los parámetrosEcuación lineal Ecuación no lineal
2cxbxay xk-eAy
Concepto de linealidadConcepto de linealidad
Ajuste de curvasAjuste de curvas
Previo: Comparación cualitativa entre la forma de los datos y el tipo de curva a ajustar
1) Ordenada en el origen
(0,0)
CY=f(x)+C
Y=f(x)
(Corrección por línea base)
(bien)
(0,0)
2cxbxay
2cxbxy (mal)
a
[S]K
[S]Vv
M
max
(mal)
21-SI
apM
apmax
[S]K[S]K
[S]Vv
(bien)
2) Maximos, mínimos, puntos de inflexión y asíntotas
Asíntota
(Máximos, mínimos…)
Ajuste de curvasAjuste de curvas
Estimación de los parámetrosEstimación de los parámetros
Optimizar los parámetros que mejor ajustan la ecuación a los datos:
Ecuación no lineal Datos
y = K1 [L] + 2 K1 K2 [L]
2
n ( 1+K1 [L] + 2 K1 K2 [L] 2
y
[L]
y[L]
0.90.60.4
0.10.20.5... ...
Regresión no lineal
Ecuación lineal Datos
y = a + b x + c x2 x
8.45.63.4 .. .
y
123...
y
x
Encontrar los valoresde los parámetrosque mejor ajustanla ecuación a los datos
Regresión lineal
Ajuste de curvasAjuste de curvas
Criterio de ajuste (de una ecuación a unos datos)
residual
residual
residual
residual
Curva suave debida a la ecuación con los parámetros
optimizados
y
x
Minimizar los residuales al cuadrado (Mínimos Cuadrados)
2)),( ii xpf((ySSQ residual
Ajuste de curvasAjuste de curvas
Regresión lineal múltiple
3 32211 xBxBxBCy
(Ecuaciones no lineales en parámetros, por ej. y =Ae-kx)
Regresión no lineal
?...............(
?...............(
))
kk
SSQ)
AA
SSQ)
Ae(yQ SS i-kxi
0
0
2
• No se pueden explicitar los parámetros, solución aproximada.• Métodos iterativos tipo: “Búsqueda” (Random Search) “Gradiente” (Gauss-Newton)
ObjetivosEncontrar las mejores estimas de los parámetros
Cuantificar precisión parámetros usando límites de confianza
Regresión por mínimos cuadradosRegresión por mínimos cuadrados
Regresión lineal simple
(Ecuaciones lineales en los parámetros,por ej. y= a+bx, polinomios en x, ….)
..........bb
SSQ)
.........aa
SSQ)
bxa(ySSQ ii
0...............(
0...............(
))( 2
•Se puede explicitar cada parámetro, solución única, método exacto
Ajuste de curvasAjuste de curvas
Cálculos en regresión lineal (simple y múltiple) usando notación matricial
do exactonica, métoSolución ú
YXXXP
YXPXX)PXY(X
)X)(PXY()PXY(X)(P
(SSQ)
SSQ)PXY)(PXY(
RPXY
UPXY
uxpxpxpxppy
TT
TTT
TT
nn.........
1
3322110
02
00
)(
)(
Ajuste de curvasAjuste de curvas
Regresión lineal simpleRegresión lineal simple
BxCyrecta línea ejemplopor
:nteindependie variableuna Sólo
][73.3157.0 aAbsorbanci Fosfato
p< 0.05 , luego los dos parámetros son significativamente distintos de cero
Ajuste de curvasAjuste de curvas
3 32211 xBxBxBCy :nteindependie variableuna de Más
Regresión lineal múltipleRegresión lineal múltiple
Ajuste de curvasAjuste de curvas
2ii ))x,p((ySSQ
: cuadrado al residuales de Sumatorio
f
22 SS y S
: ajuste del estándar desviación yVarianza
mn
SSQ
Representación de los residuales:
•Test de las rachas•Test de los signos
Residual
-
+0
)y(y
)y(y-1
SSQ
SSQ1 R: ióndeterminac de eCoeficient 2
i
2ii
total
regresión2
(R2 = 0.95 significaría que el modelo explica el 95% de la variabilidad)
Bondad de un ajuste en regresión lineal (Respecto a los residuales)
yy
(Debe de ser pequeño)
(del orden error relativo experimental)
Ajuste de curvasAjuste de curvas
var(pn)....p(n))cov(p(1),
......
var(p2)p(2))cov(p(1),
var(p1)
2-1T SX)(XVAR(P) :covarianza- varianzade Matriz
)pvar( t p :confianza de Límites i)-1 m,-(n i
100p)VAR(p)CV%(p : variaciónde eCoeficient ii i
)p
0-p T :parámetro un dea redundanci de t"" Test
i
i
var(
0 parámetro 0.05 pSi 0 parámetro 0.05 pSi
Bondad de un ajuste en regresión lineal (Respecto a los parámetros) (1/2)
01170560
17001980
56098001
...
...
...
varvar jijipp ppp,pCovρji
Matriz de correlación
Ajuste de curvasAjuste de curvas
1. No existe una solución única, no son métodos exactos
2. Ningún algoritmo garantiza el encontrar el mínimo global. Se puede caer en mínimos locales
3. Lo recomendable es alcanzar un mismo mínimo a partir de diferentes estimas iniciales de los parámetros
Parámetro 1Parámetro 2
SS
Q
Mínimo localMínimo global
Regresión no lineal: Métodos iterativos, mínimo global y mínimos locales
Ecuación no linealxk-eAy
Ajuste de curvasAjuste de curvas
Algoritmos iterativos en regresión no lineal
p
p
x x x x x
x x x
x
xx
xxx
x
x
x
x xx x
“De búsqueda (Random Search)”
Importancia de las estimas iniciales de los parámetros: límite inferior, valor inicial, límite superior (1, 100, 10000)
“Gradiente” (Gauss-Newton, Marquardt)
p
p
u
u
WSSQ
iiii upp 1
Ajuste de curvasAjuste de curvas
• Los parámetros se obtienen por métodos aproximados (iterativos)
• No obstante se toma como válida la estadística de la regresión lineal ( sólo cierto en condiciones asintóticas de ) n
• Hincapié: la estadística asociada a la regresión no lineal se suele interpretar de una manera más flexible que en la regresión lineal (por ejemplo se admiten coeficientes de variación de los parámetros de hasta el 50%)
Bondad de un ajuste en regresión no-lineal
Ajuste de curvasAjuste de curvas
)pvar( t p :confianza de Límites j) m,-(n j
100p)VAR(p)CV(p : variaciónde eCoeficient jj j
)p
0-pT :parámetro un dea redundanci de t"" Test
jvar(
Estadística asociada a la regresión no linealEstadística asociada a la regresión no lineal
0.05)(p 0parámetro
0.05),(ctTSi
0.05)(p 0parámetro
0.05),(ctTSi
En resumen, lo mismo que en lineal pero con mayor flexibilidad:
(n = nº puntos, m = nº parámetros)
Ajuste de curvasAjuste de curvas
1) Es necesario comparar la bondad de los 2 ajustes rivales:
SSQ, R2, distribución residuales, test de las rachas,
límites de confianza de los parámetros..etc2) Se debe aplicar el test “F”:
22
1221
m-nSSQ
mmSSQSSQF
2 modeloacepta se
0.05)(c 21FFSi ,,
1 modeloacepta se
0.05),,(c 21FFSi
En Ciencias Experimentales lo habitual es que se dude entre modelos alternativos dentro de una secuencia:
]S[K
]S[V.........
]S[K
]S[V
]S[K
]S[Vv
)n(M
)n(max
)2(M
)2(max
)1(M
)1(max
Discriminación entre modelosDiscriminación entre modelosAnálisis de datos Análisis de datos (Ajuste de curvas)(Ajuste de curvas)
Estadístico
Ajuste de curvasAjuste de curvas
Discriminación por superposición de ajustes
(Basado en Bardsley 2011, SIMFIT statistical package)
Ajuste de curvasAjuste de curvas
Superposición de ajustes en otros espacios
Ajuste de curvasAjuste de curvas
Regresión con pesos estadísticos
(estas varianzas se determinan a partir de réplicas)
2is
• El criterio de optimización es ahora :
2ii
2i ))x,p()(ys(1WSSQ f
(weighted sum of squares)
• La última suposición no se suele cumplir y hay que “normalizar” los residuales con un factor llamado “peso estadístico”:
2ii sw 1
(weight)
• El error en la respuesta es aditivo : yi = f ( p , xi ) + ui
• Todos los errores (ui, u j , ... ) siguen una distribución normal de media cero y varianza constante (todas las medidas tienen la misma precisión )
• El criterio de mínimos cuadrados asume que:• La variable x no tiene error
• Los errores u i y u j son independientes
Ajuste de curvasAjuste de curvas
Ajustar siempre ecuaciones directas y nunca transformaciones lineales
Conclusión: Lo ortodoxo para determinar parámetros es la regresión no lineal con pesos estadísticos a la ecuación directa
Ecuación Michaelis-Menten
]S[K
]S[Vv
M
max
)(vVAR
1w
ii
Linealización Lineweaver -Burk
]S[
1
V
K
V
1
v
1
max
M
max
)v1(VAR
1w
ii
4i
i
i v)(vVAR
)v1(VAR pero
)i
4i
i (vVARv
w
Ajuste de curvasAjuste de curvas
Ejemplo de regresión no lineal con SIMFIT
Con una preparación enzimática de dos isoenzimas se realizó el siguiente estudio: 8 puntos experimentales, en el margen de concentraciones de 0.05 a 50 mM, espaciados logarítmicamente y realizándose 5 réplicas por punto (40 datos en total).
[S] v s0.050 0.0530 0.0006
0.050 0.0531 0.0006
0.050 0.0523 0.0006
0.050 0.0522 0.0006
0.050 0.0520 0.0006
….. ….. …..
50.0 1.73 0.06
50.0 1.86 0.06
50.0 1.86 0.06
50.0 1.77 0.06
50.0 1.76 0.06
¿Tienen las 2 isoenzimas la misma Vmax y Km?
]S[K]S[V
]S[K]S[V
v)2(m
)2(max
)1(m
)1(max
2ii s1w
2),( ii2i Sp)(vs(1WSSQ f
Ajuste de curvasAjuste de curvas
Ajuste a 1 Función de Michaelis-Menten Iteración WSSQ (1:1) 0 3.627E+04 1 7.945E+03 14 1.308E+03 Búsqueda 1 terminada (Sigma = 1.00) 43 1.131E+03 46 6.811E+02 61 6.444E+02 Búsqueda local terminada (Sigma = 0.10, 0.20) WSSQ antes de la búsqueda = 3.627E+04 WSSQ después de la búsqueda = 6.444E+02 Estimas iniciales de los parámetros Vmax(1) = 1.609E+00 Km(1) = 1.669E+00 WSSQ antes del ajuste = 6.444E+02 WSSQ después del ajuste = 2.428E+02 Nº Parámetro Valor Err. estánd. ...Lím.conf.95%.. p 1 Vmax(1) 1.617E+00 2.90E-02 1.56E+00 1.68E+00 0.000 2 Km(1) 1.525E+00 3.68E-02 1.45E+00 1.60E+00 0.000
Algoritmo Búsqueda al azar
Algoritmo Cuasi-Newton
)p
p-0 T :aredundanci
i
i
var(
(p<0.05)
Ajuste de curvasAjuste de curvas
Matriz de correlación de los parámetros 1.000 0.876 1.000 Var.indep. Err.estánd. Var.dep. Teoría Residuales Resids.pond. 5.000E-02 6.381E-04 5.295E-02 5.133E-02 1.618E-03 2.536E+00 5.000E-02 6.381E-04 5.309E-02 5.133E-02 1.759E-03 2.757E+00 5.000E-02 6.381E-04 5.226E-02 5.133E-02 9.279E-04 1.454E+00 5.000E-02 6.381E-04 5.219E-02 5.133E-02 8.599E-04 1.348E+00 5.000E-02 6.381E-04 5.151E-02 5.133E-02 1.809E-04 2.836E-01
......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... .........
5.000E+01 5.995E-02 1.729E+00 1.569E+00 1.600E-01 2.669E+00* 5.000E+01 5.995E-02 1.865E+00 1.569E+00 2.958E-01 4.934E+00** 5.000E+01 5.995E-02 1.855E+00 1.569E+00 2.865E-01 4.779E+00** 5.000E+01 5.995E-02 1.773E+00 1.569E+00 2.041E-01 3.404E+00** 5.000E+01 5.995E-02 1.763E+00 1.569E+00 1.937E-01 3.231E+00**
(Err.rel.resid.: ****** >160%,***** >80%,**** >40%,*** >20%,** >10%,* >5%)
si
yexp. yajus. yexp.- yajus.
Ajuste de curvasAjuste de curvas
Tabla de análisis global de los residuales (importante)Análisis de ResidualesAnálisis de residuales: WSSQ = 2.428E+02P(Ji-cuadrado >= WSSQ) = 0.000 Rechazar al 1% significanciaR-cuadrado, cc(teoría-datos)^2 = 0.982Mayor err. rel. en residuales = 17.23 %Menor err. rel. en residuales = 0.35 %Media de err.rel. en residuales = 5.66 %Residuales con err.rel. 10-20 % = 15.00 %Residuales con err.rel. 20-40 % = 0.00 %Residuales con err.rel. 40-80 % = 0.00 %Residuales con err.rel. > 80 % = 0.00 %Número residuales < 0 (m) = 21Número residuales > 0 (n) = 19Número de rachas observadas (r) = 7P(rachas =< r , dados m y n) = 0.000 Rechazar al 1% significanciaValor en cola inferior al 5% = 15Valor en cola inferior al 1% = 13P(rachas =< r , asumiendo m+n) = 0.000P(signos =< menor nº observado) = 0.875Estadístico de Durbin-Watson = 0.250 <1.5 (correlación valores +)W de Shapiro-Wilks (resid.pond.) = 0.974Nivel de significancia de W = 0.476Test AIC de Akaike (SC Schwarz) = 2.237E+02 ( 2.234E+02)Veredicto sobre bondad ajuste: bueno
Test 2 (p < 0.01)
weighted sum of squares
Test rachas (p < 0.01)
cualitativo (poco valor)
Ajuste de curvasAjuste de curvas
Hay 7 rachas (pocas para 40 residuales), eso significa un ajuste “sesgado” (los residuales debieran estar al azar y no en “racimos”)
Ajuste de curvasAjuste de curvas
Ajuste de curvasAjuste de curvas
Entra automáticamente el ajuste a 2 Michaelis-Menten Iteración WSSQ (2:2) 0 3.627E+04 1 1.045E+04 7 3.393E+03 21 1.262E+03 30 8.976E+02 143 5.505E+02 Búsqueda 1 terminada (Sigma = 1.00) 185 5.462E+02 195 4.145E+02 202 3.354E+02 222 2.044E+02 Búsqueda local terminada (Sigma = 0.10, 0.20) Para la búsqueda al azar 2:2 Nº de mejoras en 320 ciclos = 9 WSSQ antes de la búsqueda = 3.627E+04 WSSQ después de la búsqueda = 2.044E+02 Estimas iniciales de los parámetros Vmax(1) = 1.530E+00 Vmax(2) = 6.222E-01 Km(1) = 1.500E+00 Km(2) = 1.091E+02 WSSQ antes del ajuste = 2.044E+02 WSSQ después del ajuste = 3.442E+01 Ajuste 2:2 Función de Michaelis-Menten Nº Parámetro Valor Err. estánd. ...Lím.conf.95%.. p 1 Vmax(1) 9.317E-01 6.70E-02 7.96E-01 1.07E+00 0.000 2 Vmax(2) 1.033E+00 8.81E-02 8.55E-01 1.21E+00 0.000 3 Km(1) 9.823E+00 2.39E+00 4.97E+00 1.47E+01 0.000 4 Km(2) 1.033E+00 6.43E-02 9.03E-01 1.16E+00 0.000
Algoritmo búsqueda al azar
Algoritmo Cuasi-Newton
Las 4 “p” son < 0.05 , parámetros distintos “0”
Ajuste de curvasAjuste de curvas
Matriz de correlación de los parámetros 1.000-0.834 1.000 0.990-0.869 1.000 0.930-0.593 0.882 1.000 Var.indep. Err.estánd. Var.dep. Teoría Residuales Resids.pond. 5.000E-02 6.381E-04 5.295E-02 5.242E-02 5.310E-04 8.322E-01 5.000E-02 6.381E-04 5.309E-02 5.242E-02 6.720E-04 1.053E+00 5.000E-02 6.381E-04 5.226E-02 5.242E-02 -1.590E-04 -2.491E-01 5.000E-02 6.381E-04 5.219E-02 5.242E-02 -2.270E-04 -3.557E-01 5.000E-02 6.381E-04 5.151E-02 5.242E-02 -9.060E-04 -1.420E+00 ....... ...... ....... ...... ....... ...... ....... ...... ....... ...... ....... ...... 5.000E+01 5.995E-02 1.729E+00 1.791E+00 -6.235E-02 -1.040E+00 5.000E+01 5.995E-02 1.865E+00 1.791E+00 7.345E-02 1.225E+00 5.000E+01 5.995E-02 1.855E+00 1.791E+00 6.415E-02 1.070E+00 5.000E+01 5.995E-02 1.773E+00 1.791E+00 -1.825E-02 -3.044E-01 5.000E+01 5.995E-02 1.763E+00 1.791E+00 -2.865E-02 -4.779E-01
(Err.rel.resid.: ****** >160%,***** >80%,**** >40%,*** >20%,** >10%,* >5%)
Residuales
Ajuste de curvasAjuste de curvas
Análisis global de los residuales para 2 Michaelis-Menten Análisis de ResidualesAnálisis de residuales: WSSQ = 3.442E+01P(Ji-cuadrado >= WSSQ) = 0.544R-cuadrado, cc(teoría-datos)^2 = 0.998Mayor err. rel. en residuales = 6.64 %Menor err. rel. en residuales = 0.21 %Media de err.rel. en residuales = 1.96 %Residuales con err.rel. 10-20 % = 0.00 %Residuales con err.rel. 20-40 % = 0.00 %Residuales con err.rel. 40-80 % = 0.00 %Residuales con err.rel. > 80 % = 0.00 %Número residuales < 0 (m) = 21Número residuales > 0 (n) = 19Número de rachas observadas (r) = 18P(rachas =< r , dados m y n) = 0.217Valor en cola inferior al 5% = 15Valor en cola inferior al 1% = 13P(rachas =< r , asumiendo m+n) = 0.261P(signos =< menor nº observado) = 0.875Estadístico de Durbin-Watson = 2.019W de Shapiro-Wilks (resid.pond.) = 0.982Nivel de significancia de W = 0.776Test AIC de Akaike (SC Schwarz) = 1.495E+02 ( 1.489E+02)Veredicto sobre bondad ajuste: increible
(disminuyó (antes 2.43E+02))Test 2 (buen ajuste p > 0.05)
(disminuyó (antes 5.66 %))
(aumentó (antes 7 ))(test rachas (buen ajuste ( p > 0.05 ))
Ajuste de curvasAjuste de curvas
Los residuales están más al azar (18 rachas frente a 7 de antes). El ajuste no está sesgado (es mejor ajuste)
Ajuste de curvasAjuste de curvas
Ajuste de curvasAjuste de curvas
Resultados del test F WSSQ previo = 2.428E+02WSSQ actual = 3.442E+01Nº parámetros previos = 2Nº parámetros actuales = 4Nº de valores x = 40Akaike AIC previo = 2.237E+02Akaike AIC actual = 1.495E+02Schwarz SC previo = 2.234E+02Schwarz SC actual = 1.489E+02Mallows Cp (Cp/M1) = 2.180E+02 ( 1.090E+02)Grad. lib. numerador = 2Grad. lib. denominador = 36Estadístico F (EF) = 1.090E+02P(F >= EF) = 0.0000P(F =< EF) = 1.0000Cola superior al 5% = 3.259E+00Cola superior al 1% = 5.248E+00 Conclusión basada en el test FRechace el modelo previo al 1% de significancia.Existe un gran fundamento para los parámetros extra.Acepte tentativamente el modelo actual de ajuste.
(disminuye, pero hay que probar que es significativo )
(p < 0.05, la disminución en WSSQ es significativa )
(Cp/M1 > 1 rechazar modelo previo )
(disminuye AIC, rechazar modelo previo)
Discriminación estadística entre los 2 modelos rivales
Ajuste de curvasAjuste de curvas
(Basado en Bardsley 2011, SIMFIT statistical package)
Ajuste de curvasAjuste de curvas
Ejemplo: Curvas Dosis-RespuestaEjemplo: Curvas Dosis-RespuestaAnálisis de datos Análisis de datos (Ajuste de curvas)(Ajuste de curvas)
Parámetro Valor Error est. ..95% conf. lim. .. A 9.989E-01 7.86E-03 9.83E-01 1.01E+00 B 9.890E+00 3.33E-01 9.21E+00 1.06E+01 k 9.881E-01 2.68E-02 9.33E-01 1.04E+00
Parámetro Valor Error est. ..95% conf. lim. ..C(50%) 2.319E+00 4.51E-02 2.23E+00 2.41E+00
kxBeA
y
1
(Basado en Bardsley 2011, SIMFIT statistical package)
Ajuste de curvasAjuste de curvas
Diferencia entre curvas de 2 tratamientosDiferencia entre curvas de 2 tratamientos
Test t con varianzas distintas para H0: CE50_1 = CE50_2================================================================== estimado err.est. ...95% lim.conf. ... npts npar 2.319E+00 4.510E-02 2.227E+00 2.411E+00 33 3 1.961E+00 1.710E-02 1.926E+00 1.996E+00 33 3 C (test t corregido) = 7.422E+00 Grados de libertad = 38 P(t=<-|C|) + P(t>=|C|) = 0.0000 Reject H0 at 1% sig.level
Test Mahalanobis Ji-cuadrado=====================================================Q = (A-B)^T(Ca+Cb)^(-1)(A-B) = 2.806E+03Nº grados de libertad = 3Prob.(Ji-cuadr. >= Q) = 0.0000
Test t entre parámetros para 2 tratamientos(A,B) con covarianzas (Ca,Cb).====================================================== Param. A B A - B p 1 1.397E+00 9.989E-01 3.981E-01 0.9750 2 1.295E+01 9.890E+00 3.060E+00 0.0000 ***** 3 1.306E+00 9.881E-01 3.179E-01 0.3781
(A)
(B)(k)
AoTratamient
kxBeA
y
1
BoTratamient
kyBAparametros ,
Ojo: aquí A y B significan los tratamientos
Ajuste de curvasAjuste de curvas
Ecuación:
Ajuste a ecuaciones de 2 variables
[S]
K]I[
1K
[S]Vv :acompetitiv Inhibición
I
m
max
Datos:
Inhibidor :
Sustrato :
velocidad :
1 1 1 1 2 2 2 2 .......
5.2 6.3 7.1 9.1 3.2 5.2 6.4 7.5 ........
2 4 6 8 2 4 6 8 ......
Ajuste de curvasAjuste de curvas
Superficie ajustada
[S]
K]I[
1K
[S]Vv
I
m
max
Ajuste de curvasAjuste de curvas
•No es válido el criterio de los mínimos cuadrados. Los ajustes se harán ahora por el método de “máxima verosimilitud”.
•Los errores en “y” no siguen una distribución normal sino una distribución binomial, de Poisson etc.
•Existe una función predictora que es función lineal de las variables:
.....312210 XaXaXaa Distribución de Poisson:
Logaritmo
Recíproco
Regr. Lineal generalizadaRegr. Lineal generalizadaAnálisis de datos Análisis de datos (Ajuste de curvas)(Ajuste de curvas)
Distribución Binomial:
f. Logística
f. probit
Ajuste de curvasAjuste de curvas
.....)(
)(log 3122110
11
1XaXaXaa
p
pe
y(i) 1=vivo0=muerto
variables: X1 , X2 , X3 ,...... p(1) = probabilidad de que y = 1
• La aplicación importante es estimar p(1) para un caso nuevo del que se conocen X1, , X2, , X3, ….
Lep
11
)1( (ej: p(1) = 0.73 de sobrevivir)
Ej: Regr. logística binariaEj: Regr. logística binariaAnálisis de datos Análisis de datos (Ajuste de curvas)(Ajuste de curvas)
L
Ajuste de curvasAjuste de curvas
N(i) = nº animales, y(i) =nº muertos, pi = y(i)/N(i), X(i) = concentración de tóxico
Ejemplo. : DL50 porEjemplo. : DL50 por regresión logística, regresión logística, probit o log-log complementarioprobit o log-log complementario
Se ajustan: Función Logística, función probit o log-log complementario
DL50 = 4.66 (IC95%: 3.63-5.68)
Función logística
Xaap
pe 10
1
log
Ajuste de curvasAjuste de curvas
Modelos en ecuaciones diferencialesModelos en ecuaciones diferenciales
Ecuaciones diferenciales simultáneas
(varias variables dependientes)
Susceptibles
Ejemplo : Epidemia
Infectados Recuperados k1 k2
d S
dt= k1 . S . I
d I
dt= k1 . S . I – k2 . I
d R
dt= k2 . I
Integran numéricamente (Adams, Gear)
S I R
Ajuste de curvasAjuste de curvas
Ejemplo: Modelos en ecuaciones diferencialesEjemplo: Modelos en ecuaciones diferenciales
Suscept.
d S
dt= k1 . S . I
Infect. Recup. k1 k2
d I
dt= k1 . S . I – k2 . I
d R
dt= k2 . I
Ejemplo : Epidemia
(Basado en Bardsley 2011, SIMFIT statistical package)
Ajuste de curvasAjuste de curvas
Suscept.
d S
dt= k1 . S . I
Infect. Recup. k1 k2
d I
dt= k1 . S . I – k2 . I
d R
dt= k2 . I
Ejemplo : Epidemia
Ejemplo de modelos en ecuaciones diferencialesEjemplo de modelos en ecuaciones diferenciales
Condiciones iniciales: S0 , I0 y R0
k1 y k2
Ajuste de curvasAjuste de curvas
Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)).
Análisis de supervivenciaAnálisis de supervivenciaTécnicas especialesTécnicas especiales
Censurado significa que a ese tiempo el sujeto se ha perdido o estaba vivo, se denota con + .
S(t) en KMS(t) significa función de supervivencia y es la probabilidad de que un sujeto sobreviva más allá de un tiempo determinado.
Ajuste de curvasAjuste de curvas
Cálculos curvas supervivencia Kaplan-MeierCálculos curvas supervivencia Kaplan-Meier
Fármaco: tiempo, muere o vive Placebo: tiempo, muere o viveEnsayo Tiempo
(meses)Nº sobreviven (intervalo)
Nº mueren
S(t)(Superv. Acumulada)
Fármaco 0 10 0 1
Fármaco 5 10 1 1x(9/10) = 0.90
Fármaco 10 9 1 0.9x(8/9)=0.8
Fármaco 15 8 1 0.80x(7/8)=0.70
Fármaco 20 7 0 0.70x(7/7)=0.70
Placebo 0 10 0 1
Placebo 3 10 1 1x(9/10) = 0.9
Placebo 5 9 1 0.9x(8/9)=0.8
Placebo 7 8 1 0.80x(7/8)=0.70
Placebo 8 7 0 0.70x(7/7)=0.70
Ajuste de curvasAjuste de curvas
Formato curvas Kaplan Meier en SIMFITFormato curvas Kaplan Meier en SIMFIT
Códigos :
0 = muere
1= censurado (perdido o sobrevive) Ensayo Tiempo (meses)
Código (0 ó 1)
Frecuencia
Fármaco 5 0 1
Fármaco 10 0 1
Fármaco 15 0 1
Fármaco 20 1 7
Placebo 3 0 1
Placebo 5 0 1
Placebo 7 0 1
Placebo 8 1 7
Ajuste de curvasAjuste de curvas
Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)).
Curvas del ejemplo sencillo anteriorCurvas del ejemplo sencillo anterior
Ajuste de curvasAjuste de curvas
Curvas de supervivencia de Kaplan-Meier: Probabilidad de que un sujeto viva más allá de un tiempo “t” (KMS(t)).
En la práctica las curvas son con más datosEn la práctica las curvas son con más datos
Fármaco
Placebo
Ajuste de curvasAjuste de curvas
Test Mantel-Haenszel (log-Rank test)
QMH=16.79
(p<0.01)
(supervivencia
diferente)
Comparación de curvas de supervivenciaComparación de curvas de supervivencia
Fármaco
Placebo
Top Related