8 Libros Tecnologia 2010

220

Transcript of 8 Libros Tecnologia 2010

Page 1: 8 Libros Tecnologia 2010
Page 2: 8 Libros Tecnologia 2010

Poner ISBN Presidente de las Jornadas: Alberto Edgardo Barbieri Comité Ejecutivo: Presidente: María Teresa Casparri Vicepresidente: María Alejandra Metelli Vocales: Alicia Blanca Bernardello Juan Ramón Garnica Hervás Javier García Fronti Liliana Norma Silva Aldo Omar Vicario Ana Silvia Vilker Comité Académico: María Teresa Casparri Enrique Dieulefait Susana Clara Olivera de Marzana Emilio Antonio Machado Editor Responsable: Centro de Investigación en Métodos Cuantitativos Aplicados a la Economía y la Gestión (CMA) Facultad de Cienicias Ecnómicas – (UBA) Av. Córdoba 2122 2º piso Ciudad Autónoma de Buenos Aires - Argentina Tel/Fax 0054 (011) 4370-6139 E- Mail: [email protected]

Page 3: 8 Libros Tecnologia 2010

7

15

27

47

69

85

111

5

65

Page 4: 8 Libros Tecnologia 2010

125

135

151

163

175

181

197

Page 5: 8 Libros Tecnologia 2010

PROLOGO

“En búsqueda de la mejor aplicación de la tecnología”

El Centro de Investigaciones en Métodos Cuantitativos aplicados a la Economía y la Gestión junto con el Departamento Pedagógico de Matemática han organizado con el mismo ímpetu de siempre estas décimas Jornadas que reúnen a estudiantes y docentes de nuestra Casa de Estudios.

Los trabajos expuestos han versado sobre la resolución de problemas matemáticos y estadísticos a través de nuevos programas que resultan aplicables a tales fines, realizando de este modo la difusión de los mismos entre los participantes.

Las reuniones científicas se desarrollaron en la sede de nuestra Facultad los días 3 y 4 de junio de 2010.

Nuestro Decano, Profesor Dr. Alberto Edgardo Barbieri tuvo a su cargo el acto de inauguración de las mismas, destacando que estas Jornadas permitieron a lo largo de los años y permiten que jóvenes estudiantes y docentes se comprometan con la enseñanza y su avance en las aplicaciones tecnológicas.

Han participado de las exposiciones y conferencias docentes de nuestra Casa de Estudios como asimismo estudiantes investigadores, alumnos de la Maestría en Gestión Económica y Financiera de Riesgos.

El auge de nuevas tecnologías es cada vez más veloz, resultando indispensable ir inculcándolo en el alumnado a fin de incentivarlos en la práctica de docencia e investigación

Es nuestro deber como docentes formar a estos jóvenes con talento para que puedan ser capaces de acompañar estos avances tecnológicos permitiendo de este modo profundizar en el verdadero conocimiento de la ciencia.

María Alejandra Metelli

Page 6: 8 Libros Tecnologia 2010
Page 7: 8 Libros Tecnologia 2010

REPRESENTACIÓN GRÁFICA EN EL ANÁLISIS DE DATOS: INTERPRETACIÓN DE DIAGRAMAS BOX-PLOT

María José Bianco Andrea Fabiana Lepera

Juana María Llamas

INTRODUCCIÓN

La estadística, como campo de estudio, es el arte y la ciencia de dar sentido a los datos numéricos. Medir y recopilar datos es el comienzo indispensable para solucionar un problema.

La primera decisión consiste en determinar lo que se quiere medir y la segunda es ver cómo se obtiene esa información. Se pueden recoger datos de una muestra o bien de toda la población.

Pero los datos en bruto no son de mucha utilidad. Se les debe sintetizar o resumir de manera que se les pueda entender y utilizar. Existen muchas maneras de organizar datos. Generalmente se comienza con una representación gráfica de los mismos y luego se buscan algunas características o patrones evidentes. Cuanta más información de este tipo se pueda obtener, mejor será el entendimiento de la población de la cual provienen los datos y la toma de decisiones será más efectiva.

Uno de los gráficos más usados como herramienta para el análisis de datos es el Box Plot (también llamado Box and whisker plot o Diagrama de Caja y Bigotes) el cual utiliza para su construcción las siguientes medidas descriptivas: mediana, cuartiles, valor máximo y valor mínimo.

En el presente trabajo se comienza por repasar las definiciones de estas medidas, luego se especifica cómo construir un Box Plot y, a partir del gráfico obtenido, cómo obtener información sobre la dispersión y simetría de los datos.

1. DEFINICIONES PREVIAS

1.1 Cuartiles y Rango Intercuartil

Sea X una variable aleatoria (discreta o continua) y sean 1 2, ,..., nx x x

los valores observados de la misma sobre los n individuos de una

Page 8: 8 Libros Tecnologia 2010

población o muestra aleatoria, ordenados en forma no decreciente, es decir 1 ( 1,..., 1)i ix x i n+≤ = − .

La mediana de estos valores es una medida de tendencia central que divide a la distribución en dos grupos con igual cantidad de observaciones a izquierda y derecha de ella.

En forma análoga los cuartiles son tres medidas de posición que dividen a la distribución en cuatro grupos con igual cantidad de observaciones en cada uno. Es decir que a izquierda del primer cuartil (Q1), entre cada par de cuartiles consecutivos y a la derecha del tercer cuartil (Q3) se encuentran, respectivamente, un 25% de las observaciones. Cabe destacar que el segundo cuartil (Q2) coincide con la mediana.

La distancia intercuartílica o Rango Intercuartil (RI) es la diferencia Q3-Q1. Su valor se utiliza como medida de la dispersión.

Ejemplo

Se presenta a continuación el valor de la potencia (en HP) de doce automóviles, ordenados de menor a mayor.

Tabla 1.

25 130 140 150 150 165 165 190 198 215 275 400

Los cuartiles dividirán la distribución en cuatro grupos con 3 observaciones cada uno. De esta manera el primer cuartil estará entre 140 y 150, es decir Q1=145. Análogamente la mediana o segundo cuartil será Q2=165 y el tercero Q3=206,5.

El rango intercuartil es RI=206,5-145=61,5

1.2 Observaciones atípicas

Aquellos valores que están muy alejados del centro de las observaciones, son considerados atípicos (outliers). Habitualmente se consideran alejados cuando distan a más de tres medidas de dispersión.

Dado que los cuartiles brindan medidas de posición y de dispersión, aquellas observaciones que distan de los cuartiles Q1 y Q3 a más de 1,5

Page 9: 8 Libros Tecnologia 2010

RI serán consideradas atípicas y los que disten a más de 3 RI, atípicas severas. Así nos quedan determinados tres grupos de observaciones:

- No atípicas: aquellas que se encuentran entre 1 1,5Q RI− y

3 1,5Q RI+

- Atípicas moderadas: aquellas que se encuentran entre 1 3Q RI− y

1 1,5Q RI− o entre 3 1,5Q RI+ y 3 3Q RI+

- Atípicas severas: aquellas que están a la izquierda de 1 3Q RI− y

aquellas que están a la derecha de 3 3Q RI+

Suelen denominarse barreras a las líneas imaginarias que dividen a cada uno de estos grupos de observaciones. Las Barreras Exteriores dejan hacia fuera de ellas las observaciones atípicas severas y las Barreras Interiores dejan entre ellas a las observaciones no atípicas. De esta forma, se tienen:

- Barrera Exterior Inferior 1 3BEI Q RI= −

- Barrera Interior Inferior 1 1,5BII Q RI= −

- Barrera Interior Superior 3 1,5BIS Q RI= +

- Barrera Exterior Superior 3 3BES Q RI= +

2. DIAGRAMA BOXPLOT

2.1 Construcción del Boxplot

El diagrama de Caja y Bigotes (traducción de su nombre original “Box and whisker plot”) o simplemente Boxplot consiste en un rectángulo o caja del cual se extienden dos líneas o bigotes.

Los bordes del rectángulo o caja se ubican a la altura del Q1 y Q3 respecto de un sistema de referencia, incluyéndose una línea divisoria de esta Caja a la altura de la mediana. Los bigotes son líneas que se extienden desde cada uno de los bordes de la Caja hasta la altura correspondiente a las últimas observaciones consideradas no atípicas.

Page 10: 8 Libros Tecnologia 2010

300 Q1 Me Q3

*

0 50 100 250

Las observaciones atípicas moderadas y severas se individualizan con un par de símbolos diferentes.

Siguiendo con el ejemplo anterior podemos calcular las barreras:

145 3 61,5 39,5BEI = − ⋅ = −

145 1,5 61,5 52,75BII = − ⋅ =

206,5 1,5 61,5 298,75BIS = + ⋅ =

206,5 3 61,5 391BES = + ⋅ =

Luego, la primer observación (con valor 15) es atípica moderada y la última (con valor 525) es atípica severa. En realidad, los datos originales correspondían a 115 y 225 respectivamente y, sin pérdida de generalidad, se puede considerar que se ingresaron erróneamente1

Por lo tanto, el boxplot correspondiente a este ejemplo es:

.

Gráfico 1.

1 La importancia de las observaciones atípicas radica en cómo afectan ciertas estimaciones no robustas. En este trabajo sólo se menciona cómo detectarlas gráficamente.

Page 11: 8 Libros Tecnologia 2010

300 Q1 Me Q3

*

0 50

100 250

2.2 Asimetría de la distribución

Considerando el significado de los cuartiles, podemos notar que a la izquierda de la mediana existe una mayor concentración de observaciones que a su derecha. Es decir que si se realizara un histograma, se obtendría una mayor altura a la izquierda del segundo cuartil, mientras que a su derecha, la barra sería más ancha y de menor altura, indicando asimetría hacia la derecha.

Gráfico 2.

2.3 Boxplots con el software SPSS

A continuación se transcribe la salida obtenida con SPSS para los mismos datos del ejemplo anterior. Cabe señalar que este software estadístico (y en la mayoría de los mismos) realiza el diagrama de Caja y Bigotes en forma vertical.

Page 12: 8 Libros Tecnologia 2010

Gráfico 3.

HP

400,00

300,00

200,00

100,00

0,00

1

12

En el gráfico se puede observar que no se incluyen las barreras y que se realiza la identificación del número de observación atípica.

2.4 Comparación de una variable sobre distintas unidades de análisis

A continuación se presenta el boxplot correspondiente a la potencia de 12 automóviles europeos y de 12 automóviles americanos2

En el mismo se pueden observar las siguientes características:

. Ambos gráficos pueden obtenerse conjuntamente, lo que permite comparar descriptivamente ambos grupos.

- Los automóviles americanos tienen una menor variabilidad en su potencia (el diagrama queda más concentrado)

2 Los valores del ejemplo anterior corresponden a los autos europeos. Los valores de los automóviles americanos son: 150/158/160/167/170/177/180/190/200/220/225

Page 13: 8 Libros Tecnologia 2010

- No hay observaciones atípicas en el grupo de los automóviles americanos.

- La distribución entre los autos americanos es prácticamente simétrica (la mediana se encuentra casi en el centro de la caja).

- No hay demasiada diferencia entre el nivel de potencia de los autos europeos y americanos (ambas cajas se encuentran centradas a la misma altura y los valores medianos son similares).

Gráfico 4.

europeoamerican

Origen

400,00

300,00

200,00

100,00

0,00

HP

1

12

3. CONCLUSIONES

Las nuevas tecnologías prestan innumerables servicios. Tal es el caso de la interpretación de gráficos estadísticos. El gráfico es una de las herramientas más útiles en el estudio de la mayoría de las disciplinas, ya que permite una visión de conjunto del fenómeno sometido a investigación, más rápidamente perceptible que la observación directa de los datos numéricos.

Page 14: 8 Libros Tecnologia 2010

En este sentido se puede concluir que el boxplot:

• Es un método visual simple para interpretar datos.

• Es de fácil construcción y los softs estadísticos lo ofrecen en su menú.

• Requiere un conocimiento básico de la estadística para su uso.

• Es útil para localizar rápidamente valores atípicos severos, analizar simetría y comparar distribuciones.

REFERENCIAS BIBLIOGRÁFICAS

Berendon, M; Levine, D; Krehbiel, T. (2001): Estadística para la Administración. Méjico, Pearson Educación.

Hildebrand, K; Ott, L. (1997): Estadística Aplicada a la Administración y a la Economía. Wilmington, Addison- Wesley Iberoamericana.

Newbold, P. (1998): Estadística para los Negocios y Economía. Madrid, Prince Hall.

Page 15: 8 Libros Tecnologia 2010

ASOCIACIÓN ENTRE VARIABLES BINARIAS: ANÁLISIS PRELIMINAR DE ENCUESTA AGROPECUARIA1

María Teresa Casparri

.

Verónica García Fronti Javier García Fronti

INTRODUCCIÓN

Una de las medidas de asociación más utilizada para correlacionar variables de naturaleza cualitativa dicotómica es el coeficiente PHI. A continuación describiremos, basándonos en el trabajo de Davenport y El-Sanhurry (1991), la metodología seguida para calcular el coeficiente PHI, y analizaremos el coeficiente PHI/PHI máximo. Luego, presentaremos cómo realizar el cálculo del coeficiente PHI utilizando una planilla de cálculo.

Por último, analizaremos los datos obtenidos de una encuesta a productores agropecuarios utilizando el cociente PHI/PHI máximo para indagar sobre la asociación de dos variables: tipo de tenencia de la tierra y contratación de seguros agropecuarios.

1. METODOLOGÍA PARA EL CÁLCULO DEL COEFICIENTE PHI

El coeficiente PHI nos permite correlacionar dos variables binarias. Para calcular el coeficiente PHI se debe partir de la tabla de contingencias. En nuestro caso, como tenemos dos variables con dos categorías por variable, la tabla 1 será de 2x2 y tendrá la siguiente forma:

1 El presente trabajo se realizó en el marco de los proyectos de investigación: PICT 2006-00770 “Impacto Económico-Financiero y Actuarial del Riesgo Climático en Argentina” y UBACyT 008 “Evaluación de Riesgos Económico-Financieros del Cambio Climático en Argentina” ambos dirigidos por la Dra. María Teresa Casparri. UBACyT 012 “ Evaluación de riesgos económicos y financieros del Cambio Climático en Argentina” que dirige Javier García Fronti

Page 16: 8 Libros Tecnologia 2010

Tabla 1.

Variable Y Variable X

Marginales Categoría 1 Categoría 2

Categoría 1 P11 P12 Y1=P11+P12

Categoría 2 P21 P22 Y2=P21+P22

Marginales X1=P11+P21 X2=P12+P22 1

En donde:

Variable Y y Variable X son las dos variables dicotómicas

Y1=Proporción marginal de individuos que eligieron la categoría 1 de la variable Y

Y2= Proporción marginal de individuos que eligieron la categoría 2 de la variable Y

X1= Proporción marginal de individuos que eligieron la categoría 1 de la variable X

X2= Proporción marginal de individuos que eligieron la categoría 2 de la variable X

P11= proporción de individuos que eligieron la categoría 1 en ambas variables.

P12= proporción de individuos que eligieron categoría 1 de la variable X y la categoría 2 de la variable Y.

P21= proporción de individuos que eligieron la categoría 1 de la variable X y la categoría 2 de la variable Y.

P22= proporción de individuos que eligieron la categoría 2 en ambas variables.

Y1+Y2 = X1+X2 = 1

P11+ P12+ P21+ P22 = 1

El coeficiente de correlación PHI (Ф), se define mediante la siguiente fórmula:

Page 17: 8 Libros Tecnologia 2010

11 22 12 21

1 2 1 2

. .. . .

P P P PY Y X X

φ −=

PHI puede tomar valores entre -1 y 1. Cuando el coeficiente es igual a cero indica que no hay asociación entre las dos variables y si toma el valor de -1 y 1 indica que existe asociación perfecta2

.

1.1 Cálculo del coeficiente PHI con Microsoft Excel

Operacionalmente el coeficiente PHI es una simplificación del coeficiente Pearson. El coeficiente Pearson es posible calcularlo utilizando una planilla de cálculo como Microsoft Excel.

Por lo tanto, si contamos con los datos extraídos directamente de nuestra encuesta, podemos evitar tener que confeccionar la tabla de contingencia y realizar directamente el cálculo con la planilla de cálculo.

Supongamos que tenemos los datos en la planilla de cálculo de la siguiente forma:

Para calcular el coeficiente de correlación PHI, utilizamos el coeficiente PEARSON que está disponible en la planilla. Para esto, nos debemos

2 Se debe recordar que estamos trabajando con variables cualitativas, por lo tanto, este coeficiente sólo indica intensidad de asociación y no la dirección de la relación.

Page 18: 8 Libros Tecnologia 2010

posicionar en el casillero en donde queremos obtener el valor del coeficiente PHI y buscamos la función PEARSON en el cuadro de dialogo Insertar función:

Luego, insertamos el rango en el que incorporamos los datos:

Page 19: 8 Libros Tecnologia 2010

El valor del coeficiente aparece directamente en este cuadro de diálogo y quedará guardado en el casillero en el que nos ubicamos cuando iniciamos el proceso del cálculo del coeficiente, como se muestra en la siguiente figura:

Esta metodología para el cálculo de coeficiente PHI es más sencilla ya que no se debe realizar la tabla de contingencia.

1.2 PHI máximo

La asociación entre las variables será perfecta cuando todos los casos de la tabla se concentren en la diagonal (o contra diagonal), esto implica que cada valor de una variable se encuentra asociada con un solo valor de la segunda variable, esto limita al coeficiente porque sólo cuando los marginales son iguales alcanza el coeficiente el valor unitario.

Esta limitación es rápidamente salvable ya que el valor máximo de PHI es una función de las proporciones marginales de las variables (Davenport y El-Sanhurry, 1991. p. 822)

1 2max

1 2

..

X YY X

φ =

Así, si se divide al coeficiente PHI por su valor máximo el cociente PHI/PHI máximo toma un valor unitario independientemente de que los marginales sean o no iguales. Este ajuste permite escalar al coeficiente PHI; veremos en la próxima parte de este trabajo que además de escalar al coeficiente indica con mayor precisión la correlación de las dos variables.

2. COCIENTE PHI/PHI MÁXIMO

Si analizamos el cociente de PHI/PHI máximo, con la fórmula Cureton`s (Davenport y El-Sanhurry, 1991 p. 823)

Page 20: 8 Libros Tecnologia 2010

22 2 2

max 2 2 2

..

P Y XY Y X

φφ

−=

− (Fórmula 3) (Para relaciones positivas con Y2>X2)

Vemos que si las proporciones marginales son fijas, la única variable es P22 (P22= proporción de individuos que eligieron la categoría 2 en ambas variables).

Por otro lado, sabemos que Y2X2 es el valor esperado de P22 si ambas variables no tuviesen relación. Si consideramos al marginal Y2 menor a X2 el máximo valor que puede tomar P22 es Y2, esto implica que el denominador de la fórmula 3 es la máxima distancia que puede tomar P22 desde su valor esperado (ya que P22 no puede exceder al mínimo marginal).

Analicemos ahora con un ejemplo numérico el coeficiente PHI y el cociente PHI/PHI máximo. (Los valores de este ejemplo fueron planteados a fines meramente didácticos).

Supongamos que tenemos dos variables dicotómicas a analizar, con 100 casos.

Variable X: Tipo de tenencia de la tierra con dos categorías posibles: Arrendatarios o Propietarios

Variable Y: Contratación de seguros con dos categorías posibles: Contratan seguro o no contratan seguro.

La tabla 2 de contingencia obtenida del relevamiento de datos es la siguiente:

Tabla 2.

TABLA DE CONTINGENCIA Arrendatarios Propietarios

Contratan seguro 0,24 0,36 0,60

No contratan seguro 0,06 0,34 0,40

Total 0,30 0,70 1

De esta tabla podemos visualizar rápidamente la proporción de individuos que son propietarios y que no contratan seguro (celda

Page 21: 8 Libros Tecnologia 2010

P22=0,34). El valor máximo de la celda P22 es el menor de los marginales, en este caso es 0,40. Por último el valor esperado para la celda P22 si no existiese relación entre ambas variables es 0,28 (0,40*0,70). Resumidamente los valores que podemos extraer rápidamente de la tabla de contingencia son:

Valor esperado para P22= 0.28 (28 casos)

Valor obtenido de P22= 0,34 (34 casos)

Valor máximo de P22= 0.40 (40 casos)

Por lo tanto, dada la tabla de contingencia, sabemos que el valor esperado de la celda P22 es 0,28 y el valor máximo es 0,40. En nuestro caso como el número de casos es 100 (N=100) cada paso será de 0,01, por lo tanto puede tomar 12 valores desde el valor esperado hasta el valor máximo. En la tabla de contingencia dada el valor de la celda P22 es de 0,34, es 6/12 del intervalo total y su valor PHI/PHI max es justamente 6/12. Es decir, uno espera que 28 individuos elijan la categoría 2 en ambas variables cuando no existe relación entre ambas variables y como máximo puede haber 40 individuos en la celda P22, esto es una diferencia de 12 individuos. Por lo tanto PHI/PHI máximo se incrementa en 1/12 a medida que se incorpora un individuo en la celda P22. El grado en que P22 excede al valor esperado es un indicador de la relación que existe entre ambas variables y esto es capturado por el cociente PHI/PHI máximo.

Si armamos una tabla en donde analizamos el número de casos en la celda P22, vemos que si hay 28 casos, el valor de PHI es 0 y el cociente PHI/PHI máximo es cero, es decir, no existe relación entre las dos variables. En el otro extremo, si hay 40 casos en la celda P22, el valor de PHI es 0.535 y el valor del cociente PHI/PHI máximo es 1, es decir que existe asociación entre ambas variables.

Page 22: 8 Libros Tecnologia 2010

Tabla 3.

Nº de casos en la celda

P22 PHI PHI/PHI

max Paso

0 28 0,00 0,00 0,00

Valor esperado de P22

1 29 0,045 0,083 1/12= 0,083 2 30 0,089 0,167 2/12=0,167 3 31 0,134 0,250 3/12=0,250 4 32 0,178 0,333 4/12=0,333 5 33 0,223 0,417 5/12=0,417

6 34 0,267 0,500 6/12=0,500

Valor obtenido de P22

7 35 0,312 0,583 7/12=0,583 8 36 0,356 0,667 8/12=0,667 9 37 0,401 0,750 9/12=0,750 10 38 0,445 0,833 10/12=0,833 11 39 0,490 0,917 11/12=0,917

12 40 0,535 1,000 12/12=1

Máximo valor posible de P22

De esta manera vemos que a medida que se incorpora un nuevo individuo en la celda P22, el valor de PHI/PHI máximo se incrementa en un doceavo hasta llegar al valor unitario, mientras que el coeficiente PHI se incrementa en menor proporción hasta llegar al valor máximo (0.535), es decir el cociente PHI/PHI máximo es un índice de la relación de ambas variables además de permitir escalar el coeficiente PHI.

Page 23: 8 Libros Tecnologia 2010

3. ENCUESTA A PEQUEÑOS PRODUCTORES AGROPECUARIOS

Durante el primer semestre del 2010 realizamos en el CMA (Centro de Investigación en Métodos Cuantitativos Aplicados a la Economía y la Gestión) una encuesta a pequeños productores agropecuarios con el objeto de conocer qué estrategias de adaptación utilizan los pequeños productores agropecuarios en la zona pampeana (PPA). El objetivo general de la encuesta es conocer cuáles son los factores que PPA identifican como relevantes a la hora de dirigir su unidad de producción y qué estrategias utilizan para enfrentarlos.

Dos de las variables que utilizamos en la encuesta son justamente las del ejemplo anterior: Tipo de tenencia de la tierra y si contratan o no seguro agropecuario. Con los datos obtenidos en esta encuesta realizamos la siguiente tabla de contingencia de la misma forma que lo realizamos en el ejemplo:

Tabla 4.

El valor esperado para la celda P22 es 0,38, es decir es el valor si no existiese relación entre ambas variables, el valor obtenido de P22 es: 0,43 y el valor máximo de P22 es: 0,43. De igual forma que en el ejemplo numérico calculamos el valor del coeficiente PHI (PHI=0,31) y el valor de PHI máximo (PHI máximo=0.31).

De esta forma el cociente PHI/PHI máximo es 1 ya que el valor de la celda P22 (propietarios que no contratan seguros) es el valor máximo que puede tener esa celda. Esto nos indica que existe una fuerte asociación entre las dos variables analizadas, el tipo de tenencia de la tierra y la contratación de seguros agropecuarios, en la muestra en cuestión.

Si bien nuestro trabajo es exploratorio y no podemos extender este resultado al universo de productores agropecuarios, esto sí coincide con la hipótesis que manejamos en nuestro estudio de que los arrendatarios son más cautelosos a la hora de manejar su explotación, ya que ellos deben negociar cada año el pago del alquiler de su campo, mientras que los

Arrendatarios Propietarios TotalContratan seguro 0,11 0,46 0,57No contratan seguro 0 0,43 0,43Total 0,11 0,89 1

Page 24: 8 Libros Tecnologia 2010

propietarios, en general, son menos adversos al riesgo y por lo tanto sus estrategias de gestión del riesgo no incluyen la contratación de seguros agropecuarios.

5. CONCLUSIONES

El coeficiente de correlación utilizado para asociar variables binarias es el coeficiente PHI, cuya principal limitación es que sólo alcanza el valor unitario cuando los marginales de ambas variables son iguales. Para solucionar esto se plantea el cociente PHI/PHI máximo que permite escalar el valor del coeficiente PHI y por lo tanto se pueden comparar cocientes provenientes de tablas distintas.

Además, el cociente PHI/PHI máximo es una medida de asociación entre las variables ya que nos indica cuán alejados estamos del valor esperado si no existiese asociación entre las variables.

Por otro lado, una forma de automatizar el cálculo del coeficiente PHI sin tener que realizar las tablas de contingencias es utilizando la función PEARSON en una planilla de cálculo.

Por último, y en lo que respecta a la encuesta a pequeños productores agropecuarios en un análisis preliminar pudimos ver que en la muestra encuestada existe una fuerte asociación entre las variables tipo de tenencia de la tierra y la contratación de seguros, coincidiendo esto con nuestra hipótesis de que los arrendatarios son más cautelosos a la hora de manejar su explotación que los propietarios.

REFERENCIAS BIBLIOGRÁFICAS

Davenport, E. y El-Sanhurry, N. (1991): PHI/PHImax: Review and Synthesis. Educational and Psychological Measurement, 51, 821-828.

García Ferrando, M. (1995): Socioestadística. Introducción a la estadística en Sociología. Madrid, Alianza Editorial, 2º Edición ampliada.

Obschatko, E; Foti, M. y Román, M. (2007): Los pequeños productores en la República Argentina. Importancia en la producción agropecuaria y en el empleo en base al Censo Nacional Agropecuarios 2002, 2° edición – Argentina – Secretaría de Agricultura, Ganadería, Pesca y Alimentos.

Page 25: 8 Libros Tecnologia 2010

Dirección de Desarrollo Agropecuario: Instituto Interamericano de Cooperación para la Agricultura.

SUPERINTENDENCIA DE SEGUROS DE LA NACIÓN (2004): Los seguros en el sector agropecuario, Comunicación SSN 645. Recuperado el 22 de agosto del 2009 de: http://portal.ssn.gov.ar/Storage/files/circulares/5232.pdf

SUPERINTENDENCIA DE SEGUROS DE LA NACIÓN (2008): Los seguros en el sector agropecuario 2007, Comunicación SSN 1904. Recuperado el 22 de agosto del 2009 de: http://portal.ssn.gov.ar/Storage/files/circulares/6491.pdf

Page 26: 8 Libros Tecnologia 2010
Page 27: 8 Libros Tecnologia 2010

EL ÍNDICE DE VOLATILIDAD AGROPECUARIA PARA ARGENTINA (AAVIX)1

Verónica Caride

Mauro de Jesus María E. Quirolo

Ana S. Vilker INTRODUCCIÓN

El sector agropecuario se ve afectado por diversos tipos de riesgos que generan un alto grado de variabilidad en el resultado final de la actividad.

En la actualidad se observa que los mercados de granos y oleaginosas están enfrentando un escenario en el cual variables distintas a los fundamentos de oferta y demanda –políticas gubernamentales, los tipos de cambio, los desastres climáticos, la inestabilidad política, etcétera- influyen significativamente en la evolución de los precios. Por consiguiente, el cuantificar y analizar la evolución de estos riesgos se torna fundamental para poder implementar una estrategia de gestión de riesgos en las actividades agropecuarias.

Este trabajo se focalizará en la elaboración de un Índice de volatilidad Agropecuario Argentino (AAVIX) que resuma la variabilidad en las expectativas del mercado respecto del precio de los principales granos producidos en el país.

Para lograr el objetivo planteado se comenzará en la sección I, detallando los efectos adversos de la variabilidad de los precios de las commodities producidas y exportadas por Argentina, luego se analizarán las diversas metodologías existentes para la estimación de un índice de volatilidad, con el fin de hallar aquella que resulte más adecuada para la confección de un índice de volatilidad agrícola para la Argentina; en la sección II se describirá la metodología utilizada para la estimación del AAVIX .

1 Este trabajo se realiza en el marco de los proyectos UBACyT E008 y PICT 00770 (Agencia) dirigidos por la Doctora María Teresa Casparri, ambos con base en el Centro de Investigación en Métodos Cuantitativos Aplicados a la Economía y la Gestión, perteneciente a la Facultad de Ciencias Económicas, Universidad de Buenos Aires. Agradecemos la colaboración de Mauricio Cristofaro y Juan Pablo Silvera de Deus, estudiantes de la carrera de Lic. en Economía de la Facultad de Ciencias Económicas -UBA-.

Page 28: 8 Libros Tecnologia 2010

Por último, y en base a la información de derivados proveniente del Mercado a Término de Buenos Aires (MATBA), se presentará la evolución de la serie resultante de aplicar la metodología escogida y se analizarán las características de la misma.

SECCIÓN 1

1. EFECTOS ADVERSOS DE LA VARIABILIDAD DE LOS PRECIOS DE LAS COMMODITIES

Las economías dependientes de las commodities como la de Argentina están expuestas a considerables shocks externos provenientes de los booms y colapsos de precios en los mercados de commodities internacionales (Cashin and McDermott, 2002; Cashin, McDermott and Scott, 1999). Estas oscilaciones en los precios relativamente fuertes están también reflejadas en la alta volatilidad de los términos del intercambio, y estos movimientos tienen un fuerte efecto sobre la posición de la cuenta corriente y el crecimiento del país.

Las razones particulares de la volatilidad del precio de las materias primas difieren por país y por commodity. Pero en general, fluctuaciones bruscas de precios son el resultado de bajas elasticidades de oferta y de demanda en el corto plazo. De esta manera, los cambios de precios tienden a exceder cualquier shock de oferta o de demanda. Para los metales y minerales, materias primas industriales y energía, los movimientos de precios están fuertemente determinados por la demanda, y están cercanamente relacionados a la actividad económica industrial global. Los precios de las commodities agrícolas están altamente influenciados por el lado de la oferta y por factores externos tales como el clima. A su vez, niveles bajos de inventario llevan a mayor volatilidad de precios del producto afectado. Además, como los precios de las commodities están denominados en dólares, parte de su variabilidad se debe a cambios en el tipo de cambio. La especulación también juega un creciente rol importante.

La volatilidad tiene un efecto negativo tanto a nivel micro como macroeconómico. En países en desarrollo, particularmente los más pobres, los problemas causados por la volatilidad del precio de las commodities se agravan por la baja capacidad de recuperación de sus economías de los shocks externos.

Page 29: 8 Libros Tecnologia 2010

A nivel macroeconómico, grandes movimientos de corto plazo en los precios e ingresos provenientes de las exportaciones tienen un impacto directo en la balanza comercial, pero también pueden tener un impacto indirecto a través de su influencia sobre el tipo de cambio real de los países exportadores. Por ejemplo, un aumento fuerte de los precios puede llevar a una apreciación del tipo de cambio real deteriorando la competitividad internacional de otros bienes exportados. Esto es porque los incrementos repentinos en los ingresos de exportación no siempre se traducen inmediatamente en una mayor demanda de importaciones. En el caso de las economías emergentes, si tales presiones para la apreciación de la moneda no pueden ser manejadas a través de políticas monetarias o de tipo de cambio, esto puede incentivar a especuladores carry trade2

Por otro lado, si hay una fuerte caída en los precios, puede ser difícil para los países exportadores mantener el nivel de sus importaciones de bienes esenciales, y la incertidumbre respecto al comportamiento de los precios se traduce en una percepción de mayor riesgo para los potenciales socios comerciales y acreedores.

a comprar activos en moneda local, lo cual a su vez reforzará la apreciación.

Adicionalmente, el presupuesto del gobierno depende fuertemente de impuestos y otros ingresos provenientes del sector de las commodities. Incrementos en el gasto del gobierno e inversión pública luego de una subida de los precios a menudo son insostenibles cuando los precios caen y los incrementados préstamos públicos tienen que ser eliminados.

Las fluctuaciones en los precios pueden de esta manera afectar adversamente la capacidad de un país de mantener constante o incrementar su infraestructura, lo que es esencial para sostener el proceso de diversificación como un complemento a la inversión privada en capacidades productivas. También ponen una restricción sobre la capacidad del sector público de mantener el nivel de educación y los servicios de salud y otros gastos sociales destinados a la reducción de la pobreza. Adicionalmente, los incrementos de precios sobre importaciones de commodities alimentos y energía puede requerir al gobierno proveer diferentes formas de subsidios a fin de eliminar incrementos en los precios al consumidor socialmente inaceptables que pueden poner en peligro los 2 El carry trade es una técnica que algunos grandes inversores practican en el mercado Consiste en comprar una divisa para simultáneamente vender otra, o lo que es lo mismo, financiarse en una divisa e invertir ese dinero en otra. El inversor apuesta a que una de las divisas se apreciará -divisa de inversión- respecto a la otra -divisa de financiación-.

Page 30: 8 Libros Tecnologia 2010

esfuerzos para reducir la pobreza y la concreción de otros objetivos de desarrollo humano.

La volatilidad del precio de las commodities aumenta las dificultades de mantener una deuda pública tanto interna como externa sostenible, y ha sido identificada como el factor principal detrás de la crisis de deuda de los países más pobres (Cohen et al., 2008).

A nivel de los productores, la inestabilidad e incertidumbre respecto a los ingresos incrementa la incertidumbre respecto a la viabilidad de la inversión, lo cual es el principal obstáculo para tomar racionalmente las decisiones de inversión. La situación de ingresos inciertos de los inversores potenciales también crea renuencia por parte de los bancos y otras instituciones financieras de proveerles financiamiento para tales inversiones e incrementa el costo de financiar.

Dados los efectos adversos de la volatilidad en el precio de las commodities a mediados de la década de 1980, la División de Productos Básicos del Departamento de Economía Internacional del Banco Mundial inició una investigación sobre el uso de instrumentos de gestión del riesgo de precios, tales como futuros, opciones y swaps, en los países en desarrollo. Este trabajo inicial culminó en 1991, con la publicación del libro de Priovolos y Duncan3 (1991). El libro argumenta que los instrumentos de cobertura de precios que se han utilizado en los mercados financieros de los países industrializados ofrecen un potencial considerable para administrar los riesgos de precios de commodities en los países en desarrollo. Después de este primer trabajo, se llevaron a cabo varios estudios de caso4

3 Priovolos, T. y R. C. Duncan (1991), Commodity risk management and finance, Banco Mundial, Washington, DC.

a fin de demostrar la aplicabilidad del enfoque, los

4 James Overdahl (1987) demostró el beneficio de los mercados de futuros de petróleo para los estados productores. Robert Myers y Stanley Thompson (1991) aportaron un modelo de administración de deuda externa que incluía bonos atados a commodities, y Stijn Claessens (1991) apuntó que los bonos atados a commodities pueden usarse para cubrir problemas de administración de deuda asociados con ingresos provenientes de exportaciones volátiles. Brian Wright y David Newbery (1991) propusieron instrumentos financieros atados a commodities para suavizar los ingresos provenientes de exportaciones. Jock Anderson, Donald Larson, y Panos Varangis (2002) observaron el rol de las garantías parciales y contingencias de commodities. Stijn Claessens y Ronald Duncan (1993), mostraron como los mercados podían ser usados para alcanzar muchos de los objetivos sectoriales de estabilización de varios de los programas existentes de una manera sustentable.

Page 31: 8 Libros Tecnologia 2010

cuales demostraron que los países en desarrollo pueden beneficiarse significativamente de la utilización de instrumentos financieros para gestionar los riesgos de precios de productos básicos (Claessens y Duncan,1993).

El incremento de los instrumentos de administración de riesgo basado en el mercado ha sido significativo en la última década. A partir de los años 90’, varios participantes del sector privado han comenzado a utilizar los mercados de derivados de commodities para cubrirse del riesgo de precios, adquiriendo estos instrumentos poco a poco relevancia.

2. METODOLOGÍAS ALTERNATIVAS DE ESTIMACIÓN DE UN ÍNDICE DE VOLATILIDAD AGROPECUARIO ARGENTINO

Los diversos riesgos que afectan los ingresos del sector agrícola se pueden clasificar en: el riesgo de producción (determinado por la productividad del suelo, las condiciones climáticas, sanitarias, etc.) y el riesgo proveniente de la variabilidad de los precios que depende tanto de las condiciones del mercado como de las políticas públicas que afecten al sector y es el tipo de riesgo en el que se focalizará este trabajo.

En la literatura reciente, se destaca que para generar un pronóstico del riesgo de precios existen básicamente dos aproximaciones: una se basa en la información proveniente de la volatilidad histórica y la otra en la volatilidad esperada por el mercado, es decir, la volatilidad implícita. Esta última, se fundamenta en algún modelo de valuación de opciones, como por ejemplo el de Black & Scholes, y asume que la volatilidad implícita que surge del mismo representa correctamente el riesgo percibido por los inversores.

La pertinencia de utilizar una u otra aproximación para la confección de un índice de riesgo agropecuario para Argentina se analizará a continuación.

2.1 Volatilidad Histórica vs. Volatilidad Implícita

Al ser el riesgo un concepto forward-looking, la importancia de conocer la volatilidad histórica del precio de un activo radica en su capacidad para predecir la volatilidad futura de dicho precio. Usualmente la volatilidad de los activos, tanto financieros como físicos, presenta path dependence; es

Page 32: 8 Libros Tecnologia 2010

decir, que la volatilidad existente en el pasado de un determinado activo es de utilidad para explicar su volatilidad futura. Un ejemplo de ello en el mercado local podrían ser las acciones del Banco Galicia, las que son consideradas debido a su mayor volatilidad histórica como el activo en promedio más riesgoso en el mercado, fenómeno que se sostiene en el tiempo.

En base a esta memoria que parecería existir en las variaciones del precio de los activos, diversos investigadores han desarrollado una serie de modelos autorregresivos para predecir la volatilidad futura, entre ellos los Autoregressive Conditional Heteroskedasticity Models (ARCH) y los Generalized Autorregresive Conditional Heteroskedasticity Models (GARCH).

Pese a esta capacidad predictiva que parecería estar presente en la volatilidad histórica, podrían existir indicadores alternativos que explicaran en una mejor medida el riesgo futuro de una inversión y por consiguiente serían más apropiados para estimarlo. La variabilidad en los precios de los activos a futuro puede estar influenciada por otros factores distintos a los vigentes en tiempos pasados y consecuentemente, las estimaciones que se basen sólo en información histórica pueden presentar sesgos importantes. Diversas medidas puntuales de políticas públicas así como otro tipo de información actualizada que impacten en las rentabilidades de los activos podrían modificar el riesgo esperado para una inversión.

Natenberg, en su libro “Option Volatility & Pricing” argumenta que: “Quizás existen otros factores que pueden afectar a la volatilidad futura que un trader5

Para el caso puntual que compete a este trabajo, la volatilidad futura del precio de las commodities agrícolas producidas en Argentina se ve afectada fuertemente tanto por las políticas de retenciones que afectan al sector como por información actualizada acerca de los eventos extremos

desconozca. Si uno cree que dicha información esté probablemente reflejada en los precios de los contratos transados en el mercado, una forma de descubrir información adicional acerca de la volatilidad es a través del mercado de opciones. En otras palabras, el trader querrá analizar la volatilidad implícita en el mercado para encontrar consenso acerca de la volatilidad”

5 Persona que compra y vende instrumentos financieros tales como bonos, acciones, commodities y derivados.

Page 33: 8 Libros Tecnologia 2010

climáticos locales y del exterior. Por consiguiente un indicador alternativo al de la volatilidad histórica basado en la información proveniente del mercado de opciones podría resultar de utilidad.

En cuanto a la evidencia empírica reciente, cabe destacar que en aquellos casos en los cuales se comparó la eficiencia de la volatilidad implícita con aquella de la volatilidad histórica para explicar el riesgo (volatilidad futura), se llegó a la conclusión de que la primera resulta ser más eficiente6

En base a este argumento, se optó por estimar un Índice de Volatilidad Agrícola para Argentina (AAVIX) a partir de la volatilidad implícita de diversas opciones que se cotizan en el Mercado a Término de Buenos Aires (MATBA)

.

Con respecto al horizonte temporal del índice, se decidió considerar aquellas opciones con el menor período de vencimiento posible debido a que en el largo plazo la volatilidad histórica e implícita convergerían. Esto se debe a la característica de la convergencia a la media que tiene generalmente la volatilidad y por lo que si se analizan períodos de largo plazo la volatilidad implícita dependería principalmente de la volatilidad histórica. Sin embargo, en un análisis de corto plazo existen otros factores que podrían jugar un rol significativo sobre la volatilidad implícita, e inclusive dominantes para explicarla.

2.2 Un Índice Multi-producto vs. Mono-producto

Como señala Barry T. Coyle (2007) en su artículo “Aggregation of Price Risk over Commodities: An Economic Index Number Approach” no existe hasta el momento metodología alguna para la confección de un índice que se base en la agregación de volatilidades. Dicha agregación debería depender no sólo de las varianzas sino también de las covarianzas y por lo tanto el problema adquiere una mayor dimensión que aquel que resulta de la agregación de precios. Las alternativas de estimación para analizar la volatilidad de un conjunto de productos/activos son dos: 1) La estimación de la volatilidad de un índice que contemple una canasta de productos/activos y 2) La estimación de la volatilidad en el precio de un 6 Véase Javier Rubio & Sandra Morini Marrero (2004), Holger Claessen & Stefan Mittnik (2002) y Christensen & Parabhala (1998).

Page 34: 8 Libros Tecnologia 2010

único producto/activo, aquel que resulte más representativo de la canasta que se quiera analizar. En este último caso, si las correlaciones entre los productos ausentes y el producto utilizado son cercanas a uno y los coeficientes de variación son similares, entonces la utilización de un único producto sería una aproximación adecuada para medir la volatilidad de dicha canasta.

Al no existir en Argentina un índice de commodities agrícolas, ni un mercado de derivados en el cual se negocien opciones sobre el mismo, se escogió la segunda opción como la posible para el caso bajo estudio. Para ello se consideró a la Soja como el producto representativo de una canasta de los principales productos agrícolas producidos en Argentina (Soja, Maíz y Trigo). La elección se realizó considerando la elevada importancia que la soja tiene sobre el volumen de producción de los principales cultivos7 así como sobre las exportaciones8

Cuadro 1. Matriz de Correlación de precios. Principales cultivos producidos en Argentina. Enero 1980 - Marzo 2010

. A su vez, como se observa en el cuadro a continuación, se chequeó que existiera una elevada correlación entre los cultivos mencionados:

Soja Maíz Coeficiente de Variación

Soja 0.27

Maíz 0.87 0.28

Trigo 0.82 0.86 0.31

Fuente: Ministerio de Economía y Finanzas Públicas - República Argentina (MECON).

Como se puede apreciar en el Cuadro 1, los principales cultivos producidos en Argentina presentan un elevado coeficiente de correlación entre sí (en todos los casos superior a 0,80) y todos presentan un coeficiente de variación similar (cercano a 0,30), lo que nos habilita a tomar alguno de estos productos como representativo de los demás (en este caso la soja por los motivos previamente mencionados). Por otra 7 La Soja representó en volumen el 56% de las toneladas producidas por el país durante el año 2009 sobre el total de los principales cultivos: soja, maíz, girasol y trigo. Fuente: SAGPyA 8 La Soja y sus derivados (harina, pellets y aceite) representaron el 23% del total de exportaciones y 43% del total de exportaciones MOA y Productos Primarios en el año 2009. Fuente: CEI

Page 35: 8 Libros Tecnologia 2010

parte, cabe destacar que estos resultados evidencian la escasa capacidad de diversificación de riesgo de los productores agropecuarios locales a través de la producción de cultivos alternativos, así como la importancia del mercado de derivados como principal mecanismo de cobertura ante variaciones en los precios para el sector.

SECCIÓN II

1. LA METODOLOGÍAS DEL AAVIX

Del análisis realizado en la Sección I se desprende que la mejor alternativa de estimación para la confección de un Índice de Volatilidad de precios del sector Agrícola Argentino (AAVIX) debe estar basada en la volatilidad implícita de la soja.

Dentro de la literatura reciente, la metodología más difundida para la estimación de un índice de volatilidad en base a la volatilidad implícita es aquella desarrollada por el Chicago Board Options Exchange (CBOE) y que se utilizó en un primer momento para estimar el VIX (Volatility Index), un índice de volatilidad implícita calculada con opciones sobre el Índice S&P. Si bien en un primer momento la metodología se aplicó sobre activos financieros, tiempo después (2008) se extendió a algunas commodities como ser el petróleo crudo y el oro9

. A continuación se presentan algunas de las aplicaciones de la metodología mencionada, la institución que los estima y otros datos relevantes.

9 Véase “The CBOE Volatility Index – VIX (2009)”. Chicago Board Options Exchange.

Page 36: 8 Libros Tecnologia 2010

Cuadro 2. Índices de Volatilidad estimados utilizando la Metodología del CBOE

Índice País Fuente Tipo de Subyacente

Subyacente específico

VIX (Volatility

Index) Estados Unidos

Chicago Board Options Exchange

(CBOE) Índice S&P500

VXD (DJIA Volatility

Index) Estados Unidos

Chicago Board Options Exchange

(CBOE) Índice

Dow Jones Industrial

Average (DJX) VXN

(Nasdaq-100 Volatility Index)

Estados Unidos Chicago Board

Options Exchange (CBOE)

Índice Nasdaq-100

Index (NDX)

RVX (Russell 2000

Volatility Index)

Estados Unidos Chicago Board

Options Exchange (CBOE)

Índice Russell 2000

Index (RUT)

OVX (Crude Oil Volatility Index)

Estados Unidos Chicago Board

Options Exchange (CBOE)

Commodity Crude Oil

GVZ (Gold Volatility

Index) Estados Unidos

Chicago Board Options Exchange

(CBOE) Commodity SPDR Gold

Shares (GLD)

VDAX Alemania Deutsche Borse Índice DAX

AEX Volatility Index

Holanda Amsterdam NYSE Euronext Índice AEX

BEL20 Volatility Index

Bélgica Brusselas NYSE Euronext Índice BEL20

CAC40 Volatility Index

Francia Paris NYSE Euronext Índice CAC40

VIMEX Índice de

Volatilidad México

Mercado Accionario Mexicano (MexDer)

Índice

Índice de Precios y

Cotizaciones de de Valores

La metodología mencionada fue introducida en 1993 por el CBOE para estimar un índice de volatilidad sobre el S&P100 llamado VIX. Si bien en

Page 37: 8 Libros Tecnologia 2010

2004 dicha metodología sufrió modificaciones, las mismas no serán consideradas en este trabajo debido a su mayor sensibilidad en mercados incompletos10

.

2. EL CÁLCULO DEL AAVIX

El AAVIX mide la volatilidad a 6 meses esperada por los agentes del Mercado a Término de Buenos Aires (MATBA) para la Soja. Se calcula a partir de la volatilidad implícita de ocho opciones (cuatro calls y cuatro puts) lo más cercanas a ATM (At The Money) y con vencimiento en Mayo y Noviembre (superior e inferior a 6 meses). Dado que se consideran días negociados (y no naturales) el período utilizado será de 132 (22 días * 6 meses).

El AAVIX surge de promediar sucesivamente las diversas volatilidades implícitas. En una primera etapa se promedian las volatilidades implícitas de calls y puts con idénticas características, posteriormente se realiza un promedio ponderado de las volatilidades implícitas cuyo precio de ejercicio se encuentra por encima/debajo del precio ATM para cada período y finalmente se realiza un promedio de las volatilidades estimadas para cada período. A continuación se explicita la fórmula de cálculo:

En donde σi,j,k es la volatilidad implícita y los subíndices significan:

i=tipo de opción

j=vencimiento

10 La nueva metodología se basa en las primas de las opciones (y no en la volatilidad implícita en la estimación de las mismas) y considera no sólo aquellas opciones At The Money (ATM) sino también todas aquellas que se encuentren Out of The Money (OTM). Esto hace que el número de opciones incluidas en la estimación varíe día a día según la cotización vigente. En mercados incompletos, la alta variabilidad existente en el número de opciones OTM que cotizan diariamente hacen del índice un indicador muy inestable y dependiente de otros factores, ajenos a la volatilidad propia esperada para las commodites.

C Call P Put

1 Vto. más próximo: T1 < 132 días 2 Vto. Siguiente: T2 > 132 días

Page 38: 8 Libros Tecnologia 2010

k=precio de ejercicio

En donde S=Precio del Subyacente.

1er Paso) En una primera etapa se obtiene para el vencimiento más cercano:

2,1,,1,

,1APAC

A

σσσ

+= y

2,1,,1,

,1BPBC

B

σσσ

+=

Y para el siguiente más cercano:

2,2,,2,

,2APAC

A

σσσ

+= y

2,2,,2,

,2BPBC

B

σσσ

+=

2do Paso) Posteriormente se calcula la posición ATM de cada vencimiento, en donde la ponderación depende de la cercanía con el precio del subyacente ATM:

−−

+

−−

=BA

AB

BA

BA KK

SKKK

KS,1,11 σσσ

y

−−

+

−−

=BA

AB

BA

BA KK

SKKK

KS,2,22 σσσ

3er Paso) Por último se promedian los valores con distinto vencimiento para representar un período estandarizado de 132 días (6 meses) de la siguiente forma:

En donde T1 es el número de días hasta el primer vencimiento y T2 es el número de días hasta el vencimiento siguiente.

A KA > S B KB < S

−−

+

−−

=12

12

12

21

132132TTT

TTTAAVIX σσ

Page 39: 8 Libros Tecnologia 2010

Note que la volatilidad del primer vencimiento se pondera con la distancia del segundo vencimiento a 6 meses y viceversa porque cuanto más lejos se encuentren las opciones de un vencimiento con respecto al período deseado menos deberían ponderar esas opciones (y por lo tanto más deberían ponderar las opciones con el otro período de vencimiento), algo similar sucede en el paso 2.

La metodología utilizada para la estimación del AAVIX invierte los pasos 1 y 2 para poder incluir en la estimación a un mayor número de volatilidades de distintos derivados en el cálculo. Así en nuestro caso el orden de ponderación definido es el siguiente:

→→

=PutCall

PC

i

→→

=siguiente Vto.2

próximo más Vto.1j

<→>→

=SKBSKA

k

Los pasos de ponderación son los siguientes:

1) Ponderación por posición con respecto al precio de ejercicio para

estimar un índice lo más At-the-Money posible.

2) Ponderación de Calls y Puts

3) Ponderación de los períodos con distinto vencimiento

1a) Para los Call con distintos vencimientos se obtendrá:

1 , ,1 , ,1 1,1 , ,1 , ,1

, ,1 , ,1 , ,1 , ,1

2 , ,2 , ,2 2,2 , ,2 , ,2

, ,2 , ,2 , ,2 , ,2

C B C AC C A C B

C A C B C A C B

C B C AC C A C B

C A C B C A C B

F K K FK K K K

Y

F K K FK K K K

σ σ σ

σ σ σ

− −= + − −

− −= + − −

Page 40: 8 Libros Tecnologia 2010

1b) Para los Put con distintos vencimientos se obtendrá

1 , ,1 , ,1 1,1 , ,1 , ,1

, ,1 , ,1 , ,1 , ,1

2 , ,2 , ,2 2,2 , ,2 , ,2

, ,2 , ,2 , ,2 , ,2

P B P AP P A C B

P A P B P A P B

P B P AP P A P B

P A P B P A P B

F K K FK K K K

Y

F K K FK K K K

σ σ σ

σ σ σ

− −= + − −

− −= + − −

2) El siguiente paso consiste en estimar una volatilidad para cada período de vencimiento, ponderando los calls y puts, obteniéndose:

,1 ,1 ,2 ,21 2

2 2C P C Pσ σ σ σ

σ σ+ +

= =

3) En el último paso, se ponderan estos dos valores según su cercanía al período considerado (en nuestro caso serían 6 meses).

3. ANÁLISIS EMPÍRICO DEL AAVIX

Siguiendo el procedimiento descrito en el apartado anterior se ha calculado el AAVIX para todos los días del periodo comprendido entre

2 /01/2006 y 29/06/2009, es decir, 648 días. En el gráfico 1 se muestra el valor del índice junto con la rentabilidad diaria absoluta del precio spot de la soja. Puede observarse cómo grandes cambios en el valor de la rentabilidad absoluta (hacia arriba o hacia abajo) coinciden con los valores más elevados del AAVIX.

−−

+

−−

=12

12

12

21

132132TTT

TTTAAVIX σσ

Page 41: 8 Libros Tecnologia 2010

Gráfico 1. Representación de AAVIX y de la Rentabilidad diaria absoluta de la soja

Entre los resultados obtenidos del análisis estadístico realizado se pueden destacar: El índice AAVIX oscila entre mínimos del 2% en periodos tranquilos y máximos del 63% en momentos de elevada turbulencia. También se observa que la volatilidad del mercado ha aumentado su nivel medio a partir de el año 2007, produciéndose un aumento considerable en el primer semestre del 2008 coincidiendo con la conocida crisis de las hipotecas sub-prime. Hasta ese momento el índice se movía en torno al 20% con un comportamiento bastante estable, pero a partir de ahí, ha ido

.

.

.

.

.

.

.

.7

10 20 30 40 50 60

A A V I X R E T O R N O S

Page 42: 8 Libros Tecnologia 2010

aumentado sustancialmente sus niveles, en línea con la incertidumbre que ha caracterizado a los mercados financieros desde entonces, como se puede observar en el siguiente cuadro.

Cuadro 3. Volatilidad Media del Mercado

Semestre Volatilidad Media del Mercado

1º Semestre 2006 21.73%

2º Semestre 2006 16.90 %

1º Semestre 2007 19.51%

2º Semestre 2007 20.11%

1º Semestre 2008 24.55%

2º Semestre 2008 26.76%

1º Semestre 2009 29.58%

Para valorar en qué medida el AAVIX mejora los resultados obtenidos por los métodos habituales empleados para predecir volatilidad vamos a comparar su capacidad predictiva con la de la volatilidad histórica.

Para tal propósito se utilizará la desviación estándar de los retornos de los precios de la soja entre enero de 2006 y junio 2010, anualizados.

Modelo 1

1, 1,R Ht t T t T t uσ α βσ+ + − += + +

Modelo 2

1,Rt t T tAAVIX uσ α β+ + = + +

Donde:

T= 132 días

• 1,Rt t Tσ + + es la volatilidad del precio spot, realizada entre el

15/5/2006 y 27/8/2009 (132 días lab para adelante a partir de las fechas que forman la serie del AAVIX)

Page 43: 8 Libros Tecnologia 2010

• 1,Ht T tσ − + es la volatilidad del precio spot, realizada entre el 2/1/2006

y 17/4/2006 • tAAVIX es el valor del índice entre el 3/1/2006 y 17/4/2009

En los dos modelos la variable dependiente 1,Rt t Tσ + + es la misma serie,

lo que cambia entre un modelo y otro es el regresor. En el modelo 2, el regresor es el AAVIX y no la volatilidad del AAVIX porque el AAVIX por si mismo ya es una volatilidad (ponderada).

Cuadro 4. Regresión de la volatilidad realizada frente a la volatilidad histórica y AAVIX

Modelo α β R2

1 Volatilidad Histórica 0.03414

(4.41)

0.8959

(26.23)

0.5108

2 AAVIX 0.0734

(38.72)

0.7093

(85.61)

0.9211

Si bien el beta del modelo 1 (histórico) es algo mayor que el beta del modelo 2 (aavix), los estadísticos del modelo 2 son mas robustos y contundentes que los del modelo 1, con lo cual se estaría convalidando la 'mayor/mejor' capacidad de predicción del aavix.

CONCLUSIONES

Como se ha comentado en este trabajo el riesgo es un concepto forward-looking, de ahí la importancia de conocer la volatilidad histórica del precio de un activo para predecir la volatilidad futura de dicho precio. En general la volatilidad de los activos, tanto financieros como físicos, presenta path dependence; es decir, que la volatilidad existente en el pasado de un determinado activo es de utilidad para explicar su volatilidad futura. Pese a esta capacidad predictiva que parecería estar presente en la volatilidad histórica, pueden existir indicadores alternativos que explicaran

Page 44: 8 Libros Tecnologia 2010

en una mejor medida el riesgo futuro de una inversión y por consiguiente son más apropiados para estimarlo.

La volatilidad futura del precio de las commodities agrícolas producidas en Argentina se ve afectada fuertemente tanto por las políticas de retenciones que afectan al sector como por información actualizada acerca de los eventos extremos climáticos locales y del exterior. Por consiguiente un indicador alternativo al de la volatilidad histórica basado en la información proveniente del mercado de opciones resulta de utilidad.

Los índices de volatilidad, elaborados a partir de la información contenida en las opciones, parecen ser un instrumento de gran utilidad y consolidados en otros mercados de derivados, sin embargo el mercado argentino no dispone de esta herramienta.

En este trabajo se ha elaborado un índice de riesgo agropecuario para el mercado argentino.

El análisis de los resultados indica que grandes cambios en el valor de la rentabilidad absoluta (hacia arriba o hacia abajo) coinciden con los valores más elevados del AAVIX.

Además se ha analizado la capacidad predictiva del AAVIX comparado con otro modelo alternativo basado en la volatilidad histórica, obteniendo como resultado que efectivamente el índice de volatilidad es el que mejores predicciones proporciona, lo que avala su principal utilidad como información de calidad para los agentes participantes del mercado.

REFERENCIAS BIBLIOGRÁFICAS

Anderson, J. R., Larson, D. y Varangis, P. (2002): “Managing Risks Rather Than Markets: An Institutional View from the World Bank of Agricultural Risk Management.” En: Ross Garnault, ed., “Resource Management in Asia Pacific Developing Countries”. Canberra: Asia Pacific Press.

Cashin P. y McDermott C.J., (2002): “The long-run behavior of commodity prices: Small trends and big variability”. IMF Staff Papers Nº 49(2). Washington, DC, Fondo Monetario Internacional.

Cashin P., McDermott C. J. y Scott A., (1999): “Booms and slumps in world commodity prices”. IMF Working Paper 99/155. Washington, DC, Fondo Monetario Internacional.

Page 45: 8 Libros Tecnologia 2010

Chicago Board Options Exchange (2009): “The CBOE Volatility Index – VIX”. http://www.cboe.com/micro/vix/vixwhite.pdf

Claessens, S. (1991): “Integrating Commodity and Exchange Rate Risk Management: Implications for External Debt Management.” En: Theopilos Priovolos y Ronald C. Duncan, eds., “Commodity Risk Management and Finance”. Washington, D.C.: Oxford University Press para Banco Mundial.

Claessens, S., y R. C. Duncan (1993):”Managing commodity price risk in developing countries”, The Johns Hopkins University Press.

Claessen H., y Mittnik S (2002): “Forecasting stock market volatility and the informational efficiency of the DAX-index options market" European Journal of Finance, Taylor and Francis Journals, vol. 8(3), pages 302-321, September.

Coyle Barry T. (2007): “Aggregation of Price Risk over Commodities: An Economic Index Number Approach”. American Journal of Agricultural Economics. Vol 89(4).

Cohen D. et al., (2008): “Lending to the poorest countries: A new counter-cyclical debt instrument”. OECD Development Centre Working Paper 269. Paris, OECD.

Christensen B. J. y Parabhala N. R. (1998): “The relation between implied and realized volatility”, Journal of Financial Economics, 50, 2, 125-150.

Ministerio de Economía y Finanzas Públicas - República Argentina (MECON). Información económica al día. http://www.mecon.gov.ar/peconomica/basehome/infoeco.html

Myers, R. J. y Thompson, S. R. (1991): “Optimal External Debt Management with Commodity-linked Bonds.” En: Theopilos Priovolos y Ronald C. Duncan, eds., “Commodity Risk Management and Finance”. Washington, D.C.: Oxford University Press para Banco Mundial.

Natenberg Sheldon (1994): Option Volatility & Pricing – Advanced Trading Strategies and Techniques. Mc Graw-Hill.

Overdahl, James A. (1987): “The Use of Crude Oil Futures by the Governments of Oil Producing States.” Journal of Futures Markets 7 (6), pp.603-17.

Priovolos, T. y R. C. Duncan (1991): “Commodity risk management and finance”, Banco Mundial, Washington, DC

Page 46: 8 Libros Tecnologia 2010

Roy Antony and Dr. Y. V. Reddy (2008): “Volatility Indexes – A leading Market indicator”. Goa University.

Rubio Javier G. y Morini Marrero Sandra (2004): “El Índice VIX para la predicción de volatilidad: un estudio internacional”. Departamento de Economía Financiera y Contabilidad. Universidad de la Laguna.

Rubio Javier G. y Morini Marrero Sandra (2004): Predicción de Volatilidad en el Mercado Español: El Índice de volatilidad VIX. Departamento de Economía Financiera y Contabilidad. Universidad de La Laguna.

Rubio Javier G. y Morini Marrero Sandra (2003): “Midiendo la Volatilidad del Mercado de Opciones con el VIX”. Departamento de Economía Financiera y Contabilidad. Universidad de la Laguna.

The CBOE Volatility Index – VIX (2009): Chicago Board Options Exchange.

Whaley Robert E. (2008): “Understanding VIX”. Owen Graduate School of Management. Vanderbilt University.

Wright, B. D. y Newbery, D. M. G. (1991): “Financial Instruments for Consumption Smoothing by Commodity Dependent Exporters.” En: Theopilos Priovolos y Ronald C. Duncan, eds., “Commodity Risk Management and Finance”. Washington, D.C.: Oxford University Press para Banco Mundial.

Page 47: 8 Libros Tecnologia 2010

IDEAS PARA EL DISEÑO DE CONTENIDOS DE UNA GUÍA DIDÁCTICA

Juan R. Garnica Hervás Aída B. Castegnaro de Pasarin

INTRODUCCIÓN

El presente trabajo aborda el desarrollo de un tema de una asignatura “Cálculo Financiero” en una Guía Didáctica aprovechando distintos recursos de la Web 2.0.

La idea es enfrentar a nuestros alumnos con innumerables recursos, cuya potencialidad va más allá del aporte de contenidos pues permite su confronte, genera habilidades para el manejo de información y procesamiento, con un enfoque integrador que los pone en contacto con el saber decir y el saber hacer en un recorrido que transita desde las fuentes originales hasta la actualidad.

1. GUÍA DIDÁCTICA

Una Guía Didáctica resulta ser una brújula para los estudiantes a los fines de orientar su estudio. No pretende ser exhaustiva, pero si abarcativa de los contenidos, habilidades y competencias que esperamos de ellos.

Pensemos que a través del paquete instruccional se genera una auténtica conversación didáctica guiada en palabras de Holmberg citado por García Aretio. Ello significa que nosotros hablamos a través del material y para ello, este material debe ser lo suficientemente motivador para que se genere una respuesta activa por parte del estudiante. Asimismo, debe adaptarse a los distintos estilos de aprendizaje.

Los apartados que debe contener una Guía son los que se enumeran seguidamente en el cuadro. Es importante, la utilización de íconos pues estas pequeñas representaciones gráficas son ayudas extra textuales.

Page 48: 8 Libros Tecnologia 2010

Cuadro 1.

El presente trabajo abordará sobre la forma en que se pensó trabajar sobre un determinado concepto como parte de una Guía Didáctica y las actividades que pueden proponerse con el aporte de las nuevas tecnologías.

El diseño de estos contenidos responden a un concepto que se trabaja en la asignatura “Cálculo Financiero” perteneciente al Departamento de Matemática. A modo de ejemplo:

Page 49: 8 Libros Tecnologia 2010

2. TASA EXPLÍCITA E IMPLÍCITA DE LA OPERACIÓN

2.1 Conocimientos previos

A partir de un organizador previo presentamos el siguiente mapa conceptual para acercarlos a los contenidos ya abordados y en qué momento se encuentran.

Mapa conceptual 1.

2.2 Tasa de Interés Explícita

ACTIVIDAD PROPUESTA

Le proponemos que determine la cuota que cancela un préstamo sabiendo que sus ingresos mensuales son de $ 6.000 y la asistencia financiera que usted necesita es $ 10.000 para reintegrarlo en 12 mensualidades, iguales y consecutivas que incluyen intereses calculados sobre saldos de deuda con una tasa de interés mensual del 2,125%.

Page 50: 8 Libros Tecnologia 2010

Anote a continuación su respuesta y fórmula de aplicación. Aplique la fórmula y utilice la planilla de cálculo La cuota es de $ …………

Posteriormente, en base a la tasa del contrato del 2,125% mensual, exprese cuál es la T.E.A. y T.N.A resultante, considerando para ello: año de 365 días y de 360 días.

La TEM es del …………..%, T.E.A. es …………..% y como T.N.A. es…………..%

El alumno habrá calculado C = Vo . a-1 (1;n;i)

-1c=6000.a (1;12;0,0215)

( )( )

12

12

1 0,02125 .0,02125c=6000.

1 0,02125 1

+

+ −

c= 952,87

En planilla de cálculo utilizando la sintaxis respectiva:

Planilla de cálculo 1.

Page 51: 8 Libros Tecnologia 2010

3. NOCIONES DE TASA DE INTERÉS EXPLÍCITA

La tasa de interés explícita es esa tasa contractual medida en términos nominales o efectivos sea anual o cualquier subperìodo, Se aplica para el cálculo de los componentes de una operación, en nuestro caso un sistema de préstamo.

El alumno habrá completado:

T.E.A. T.N.A

365 días 29,1537% 25,85%

360 días 28,7018% 25,50%

3.1 Contextualización de la operación

Lo invitamos a realizar una búsqueda en el mercado a los fines de verificar condiciones y valores resultantes para un préstamo con estas características. Puede concurrir a una entidad financiera en el Sector de Préstamos o bien aprovechar los recursos de la tecnología y acceder a alguna página de alguna entidad financiera en la web.

3.2 Simulador de la Web

Le proponemos conectarse a internet e ingresar al simulador que figura en la página de una entidad financiera, ej :

http://www.macro.com.ar/scp/per_pres_pers_simulador.asp. Si lo hizo, descubrirá que puede ingresar los datos de la actividad inicial en el simulador.

Anote los resultados obtenidos:…………………………………

3.3 Confronte de los resultados y su análisis

En esta fase el alumno cuenta con la información que el simulador le devuelve.

Page 52: 8 Libros Tecnologia 2010

Es el momento de confrontar los valores resultantes.

¿Qué diferencias halla entre los valores del simulador y los que resultan del planteo con relación a la TNA, TEA, y cuota..........

TNA........................................................

T.E.A……………………………………………………

Cuota…………………………………………………..

En conclusión, la T.N.A. informada en el simulador corresponde a…….…………………………..y la TEA a………

La cuota merece otro tratamiento, pues es una cuota promedio y la abordaremos más adelante.

Page 53: 8 Libros Tecnologia 2010

3.4 Búsqueda en la Web

Se sugiere confrontar con otras páginas de entidades financieras a través de algún buscador tipo www.google.com.ar o www.bing.com para informarse de los valores de plaza, cuidando si el sitio es de otro país, pues se trata de otra moneda de origen, tasa y otras condiciones del país local.

Teniendo en cuenta las distintas líneas de préstamos, construya una tabla que informe la TNA y TEA explícita y su correspondiente CFT, indicando el plazo de financiación……………

4. ARTICULACIÓN JURÍDICA - INTERPRETACIÓN DEL C.F.T.

Indagar sobre el contenido que figura al final del simulador.

Se sugiere la consulta en la web de los siguientes sitios:

http://www.bcra.gov.ar/pdfs/marco/marco%20legal%20completo.pdf

http://www.bcra.gov.ar a fines de tener acceso a las normas de regulación en el mercado financiero institucionalizado.

Comunicación “A” 3052 “Tasas de interés en las operaciones de crédito”

Comunicación “A” 4621 “Normas sobre Tasas de interés en las operaciones de crédito”. Publicidad del costo financiero total (C.F.T.) en diversos medios de prensa.

Comunicado Nº 48695 “Préstamos personales – Tasas y costos promedio de los préstamos personales”

5. ARTICULACIÓN CONTABLE

Asimismo, a los fines de articular las regulaciones con lo que el Consejo Profesional en Ciencias Económicas dispone contablemente, deberá consultarse la “Resolución Técnica N°12” que està disponible en el siguiente sitio

http://www.economicas-online.com/docs/rt12.htm

Page 54: 8 Libros Tecnologia 2010

6. ESTABLECER DIFERENCIAS ENTRE LAS TASAS EXPLÍCITAS E IMPLÍCITAS.

En resumen, toda operación concertada en el mercado financiero institucionalizado debe contener como mínimo dos tasas, la T.N.A. y la T.E.A. y en el caso de operaciones activas aparece otra más, esa tasa implícita que en la comunicación de B.C.R.A. la denomina C.F.T.(Coste Financiero Total)

Piense en qué circunstancias coste financiero total puede ser diferente de la tasa contractual, pues aquí nos da diferente.

Primeramente, debemos plantear la ecuación de valor del coste financiero que no es otra cosa que buscar el tanto de interés que permita una equivalencia financiera entre los flujos de fondos (cuantía recibida) y cuantías a entregar. ( las cuotas del préstamo).

En esa ecuación puede resultar que esa tasa de interés que denominaremos “tasa de interés implícita” coincida con esa tasa contractual o explícita y podemos afirmar que el sistema de préstamo es transparente, me cobran lo que me dicen que me van a cobrar.

Recuerde los diferentes métodos para determinar la tasa de interés para el caso de cuotas constantes y anote los resultados obtenidos

En estas condiciones, debemos preguntarnos por qué el C.F.T. es distinto. Observe la cuota que la entidad financiera le determinó frente a la suya calculada al inicio.

Ello representa un cronograma de pagos que además de incluir la cuota pura faltan adicionarle otros cargos que debe afrontar el deudor. Así el planteo de la ecuación sería:

Ecuación del valor de la tasa de interés implícita de la operación i*

( ) 01 1 *

n

pp

cp Vi=

=+

∑ -cuotas puras-

Page 55: 8 Libros Tecnologia 2010

6.1 Acerca de la cuota promedio

Pensemos que con cuotas periódicas que contienen partidas que son variables –decrecientes- pues a medida que transcurre el plazo del préstamo inciden en menor proporción sobre el mismo, tales como las primas por seguros sobre el préstamo y sobre el bien dado en garantía; los flujos de caja de la operación se comportan en forma decreciente a través del tiempo y por lo tanto, lo que debe conformar la equivalencia financiera son cada una de esas cuotas y no la cuota promedio.

Anote: ¿Qué conclusión extrae de acuerdo a los valores que el simulador arroja?

6.1.1 Normativa vigente y Protección al Consumidor

Recuerde:

Dentro del marco financiero regulado por el B.C.R.A. y en lo relacionado a operaciones que realizan las entidades financieras, en el punto l.5. del capítulo II de la Comunicación OPRAC-1, que si bien ha sido sustituido por otras comunicaciones, es importante resaltarla por ser troncal y no modificarse en las posteriores normas que las sustituyen, se establece que queda prohibido el cobro de comisiones y otros cargos adicionales a los intereses en las operaciones de crédito respecto de los importes efectivamente desembolsados, salvo que se convenga con los clientes e importen una real prestación de servicios (gastos en verificaciones domiciliarias, estudio del

Ecuación del valor de la tasa de interés implícita de la operación i*

( ) 01

(1 )1 *

n

pp

cp Viβ α

=

+= −

+∑

Considerando:

cuota pura –cp- más gastos -β- que representan mayores pagos

Page 56: 8 Libros Tecnologia 2010

título ofrecido en garantía, pedido de informes tales como el VERAZ, etc.) .

Según la línea de préstamo que se trate, existen conceptos que incrementan el valor de las cuotas, veamos por ejemplo el caso de un préstamo prendario en donde el acreedor cubre su crédito recargando en la cuota del deudor la prima resultante del seguro del auto que se ofrece como garantía. Si fuese un crédito hipotecario será la prima por el seguro del inmueble (por ejemplo, el seguro por incendio, pues en caso de siniestro el acreedor pierde su garantía). Además no debemos olvidar otros conceptos como el efecto impositivo, en donde las entidades actúan como agentes de retención del I.V.A., es decir el deudor también deberá pagar el IVA de los intereses periódicos. Cuantos más adicionales se agreguen a las cuotas puras, más se aleja el tanto de interés implícito del tanto de interés contractual, independientemente del sistema de préstamo.

Entonces, es importante preguntar en el momento de analizar la viabilidad de tomar un préstamo si la cuota que se informa, es cuota pura y contemplar en forma exhaustiva los adicionales que se presentan, para no equivocar la decisión.

ACTIVIDAD de INTEGRACIÒN Y PARTICIPACION en FORO

Ahora, le proponemos que a partir de la información sobre otro préstamo cuya publicidad se expone a continuación:

Page 57: 8 Libros Tecnologia 2010

Determine si puede validar la información all í suministrada para armar el cronograma de pagos y calcular el importe de la cuota, las tasas informadas explícitas y el C.F.T. Si no puede, qué datos le falta?

Con los resultados participe en el foro en la carpeta abierta con el título “Las tasas de interés en los préstamos” y deliberen los resultados

Page 58: 8 Libros Tecnologia 2010

con sus compañeros recordando cuáles son las normas para participar en el foro.

El tiempo con que cuentan para estar conectados e intercambiar ideas será el previsto en el Cronograma de Actividades colgado en la plataforma, es decir hasta la semana siguiente en que cerraremos el foro.

Recordemos la importancia de estar al día con los contenidos pues es la única manera de llegar al parcial en tiempo y forma y así podemos enriquecernos en grupo con preguntas que corresponden a los temas que vamos generando.

Cuando finaliza el tiempo para trabajar en el foro haremos una “Breve síntesis” con las conclusiones.

7. CHAT

No olviden que, de acuerdo a las fechas previstas en el cronograma de clases, nuestro lugar de reencuentro será en el Chat y si se producen problemas comunicacionales en la plataforma, nos enviamos un correo electrónico informando la situación para proponer otro momento de encuentro virtual.

8. ESTUDIO DE CASO

Se puede presentar un estudio de caso para su análisis en grupo y que los involucra en el saber hacer. El contenido puede ser preparado o bien se pueden buscar casos con un simple trámite de registro en instituciones educativas tales como

http://hbsp.harvard.edu/product/cases

9. ORIENTACIONES BIBLIOGRÁFICAS

BASICA incorporada en el Programa de la asignatura colgado en la plataforma y toda aquella recomendada en la presente guía.

Además, en la web encontrarán una sección de un libro titulado “Finanzas” interesante, cuyo autor es Zvi Bodie, Robert C. Merton, que también podrán consultar para confrontar pareceres.

Page 59: 8 Libros Tecnologia 2010

9.1 Préstamos con diferimiento de cuotas

Tratamiento durante los “t” períodos de diferimiento.

Para determinar las fórmulas que plantean un préstamo muy utilizado en la práctica financiera, que es comenzar a pagar las cuotas períodos después de recibido el préstamo, nos lleva a considerar el tratamiento del mismo.

Se trata de Devengamiento de Intereses y Capitalización por “t” períodos de la Deuda

10. ACTIVIDAD PROPUESTA

Le propongo hacer los cálculos para un préstamo de $ 400.000 que deberá tomar una empresa, si la tasa activa mensual es del 2,4% y se reembolsará mediante 6 cuotas mensuales, iguales y consecutivas que incluyen intereses sobre saldos adeudados, produciéndose el primer vencimiento a los cuatro meses de concretado el préstamo.

En principio, determine el valor de la cuota

La cuota es de $ …………

Si se le pide un cuadro de marcha seguramente dejará esta lectura, aduciendo que ya lo hizo al inicio de esta Unidad y le resulta arduo. De todas formas, escriba los datos del ejercicio

V(0) = .............

n = ....... ; t = ...... i = .............

Pues bien, lo haremos pero por otra ruta. Dejaremos de lado la calculadora para ir armando esta operación diferida. Aprovechando nuestros recursos informáticos puede ingresar a un sitio que le proponemos. Seguramente, habrá identificado que la imagen es de youtube, pues bien, olvídese de escuchar música o mirar un video clip, sino va a presenciar una pequeña clase en español, (no necesita traductor) que le demorará menos de diez minutos.

Page 60: 8 Libros Tecnologia 2010

Planilla 1.

Utilizará la Planilla de cálculo como lo hemos hecho en otras oportunidades, pero para que resulte más simple la aplicación se recomienda visitarla

http://www.youtube.com/watch?v=3BenI0uH3bE&feature=related. Se trata de un video explicativo tutorial sobre la metodología para realizar el cuadro evolutivo de la operación de financiación.

Vaya registrando aquí los pasos que se siguen en el tutorial. Es importante, pues se olvidará luego de lo visto.

Columna de pago ....................................... Columna de Interés .................................... Columna de amortización............................. Columna de saldo........................................

11. OTRA ACTIVIDAD

A los fines de retener los aspectos fundamentales le proponemos seguir practicando siguiendo el siguiente ejemplo. No debe ser optativo pues

Page 61: 8 Libros Tecnologia 2010

cuanto más se entrene, mejor capacitado se encontrará para demostrar sus conocimientos, habilidades y actitudes. Recuerde es su compromiso como futuro profesional

Planilla 2.

Anote a continuación sus dudas para la plataforma. Respetemos los tiempos, por lo que para cada punto está previsto en el cronograma.......................................................................

12. ACTIVIDAD DE INTEGRACIÒN Y PARTICIPACION EN FORO

Por último, le propongo que a partir de la información del cuadro encuentre si están todos los elementos y adapte la nomenclatura con la utilizada en nuestros textos.

Cuadro 2.

Posteriormente, compare el cuadro anterior con el siguiente y especifique qué relación existe entre ambos

Page 62: 8 Libros Tecnologia 2010

Cuadro 3.

Cuando tenga la actividad realizada Manos a la Obra y a trabajar en el Foro

El tiempo con que cuentan para estar conectados a este tema, pues los contenidos restantes de la materia nos esperan y poder intercambiar ideas, será el previsto en el Cronograma de Actividades colgado en la plataforma, es decir hasta la semana siguiente en que cerraremos el foro.

Recordemos lo vital que es para el aprendizaje de ustedes y la interactividad en la plataforma el estar al día con los contenidos, pues es la única manera de llegar al parcial en tiempo y forma y así podemos enriquecernos en grupo con preguntas que corresponden a los temas que vamos generando.

Cuando finaliza el tiempo para trabajar en el foro haremos una “Breve síntesis” con las conclusiones

CONCLUSIONES

La idea es utilizar las tecnologías de la información y de la comunicación como soporte complementario de los entornos; de forma tal de anexar nuevas formas de dialogar a través de un determinado paquete instruccional acercando a nuestros alumnos con todas las representaciones

Page 63: 8 Libros Tecnologia 2010

posibles, animación gráfica, video, simulaciones, aplicaciones informáticas, además de constituir un “atajo” en términos de Edith Litwin, que les permite quebrar la monotonía del paisaje. Es un recurso más de nuestra caja de herramientas, que debe ser contemplado en la preparación de la guía didáctica.

Las habilidades que fomentan las TICS: comunicacionales, de cooperación, exploración, pensamiento integral, hacen a la alfabetización informacional. No obstante, nuestros estudiantes deben reconocer que no toda la información allí disponible se transformará en conocimiento, pues exige crear conciencia para que puedan desarrollar criterio para la selección y evaluación de la calidad de la información.

Sin embargo, ello solo no solucionaría el problema estudiantil relacionado a la construcción de significados, del sentido que le asignan a los contenidos, del aprendizaje autónomo, de la decodificación correcta de la información si no se trabajan desde distintas aristas,

- desde nuestro rol con el modo en que le diseñemos y organicemos el contenido y planteemos las estrategias de enseñanza para alcanzar:

- la asimilación reflexiva y

- las competencias específicas de la tecnología digital y de la información;

- de la forma en que arrastremos a los participantes y de la fuerza para atraparlos en ese diálogo.

- desde el rol del alumno como protagonista del acto educativo quien debe manifestar intencionalidad y compromiso.

Page 64: 8 Libros Tecnologia 2010
Page 65: 8 Libros Tecnologia 2010

TIC´S PARA LA ENSEÑANZA UNIVERSITARIA Y PARA EL FUTURO DESEMPEÑO PROFESIONAL

Silvina Delfino

Este trabajo, busca incorporar las TIC´s a la enseñanza de las materias

del ciclo profesional de las carreras de la Facultad de Ciencias Económicas

Plantea a nivel pedagógico, la incorporación de tecnología:

Para la realización por los alumnos de mapas conceptuales, como organizadores mentales y

De programas que sirvan para evaluar el conocimiento de los alumnos, o de autoevaluación por los mismos.

De software y material para mantenerse actualizado, que usa habitualmente el profesional independiente, como parte integrante de los programas de las materias de la carrera

Mediante capacitación a los docentes en el uso de tecnologías como “moodle”, y de creación de videos para subir a youtube, o a slideshare. Actualmente se está por brindar un curso de Tecnología Educativa para docentes de la facultad.

Las TIC´s que se utilizan actualmente, y con las que convivimos a diario, nos llevan a que se plantee la necesidad de que los alumnos, aprendan a saber seleccionar la información valiosa de aquella que no lo es, ya que en su posterior desempeño profesional deberán enfrentarse también a este desafío.

Quiero plantear la posibilidad de que los alumnos, deban investigar en diversas páginas, como por ejemplo, www.consejo.org.ar, www.cpba.com.ar, y páginas como: www.afip.gov.ar, www.anses.gov.ar, www.boletinoficial.gov.ar, www.mecon.gov.ar, www.jus.gov.ar, www.trabajo.gov.ar , www.agip.gov.ar , entre otras, o que busquen páginas de estudios contables, y vean qué información utilizan, para que se habitúen a consultar las mismas y a adquirir herramientas para su actualización periódica, si es que la materia que cursan tiene relación con las mismas.

Que utilicen el software que se puede descargar de las páginas de Internet y lo apliquen en las materias de la carrera.

Page 66: 8 Libros Tecnologia 2010

Que los alumnos aprendan a usar Excel, Access, y sistemas de información específicos: como Tango, Sistemas Bejerman, y otros que se utilizan actualmente.

Que en las materias, se den guías prácticas, para la utilización de los programas mencionados, que puedan bajar de Internet, para que puedan utilizarlos en la aplicación práctica de lo aprendido.

Que se incorporen las experiencias laborales de los alumnos, referidas a los temas enseñados, para que todos aprendamos de todos.

Que los alumnos se habitúen a recibir y a buscar información de actualidad de su profesión, por ejemplo, leer o traer recortes de diarios, buscando en diversos medios. A modo de ejemplo: Infobae profesional, etc., y los traigan a clase, destinando diez minutos de clase a tratar temas de actualidad.

Que las empresas brinden charlas informativas en la facultad y cedan sus versiones educativas a las cátedras de la facultad, con la posibilidad de que en una clase en la cursada, los alumnos puedan recibir una charla sobre los programas vigentes, y su utilización en la materia, si tiene conexión con los temas a tratar. Que los alumnos puedan utilizar los mismos en la cursada y aplicarlos en la parte práctica de la materia mediante versiones educativas.

Para lograr estos cambios es necesario:

Contar con un área que gestione los mismos, e

Incorporar gabinetes de computación a tal efecto o notebooks con conexión a Internet que donen las empresas. Actualmente a nivel del GCBA, ya se está aplicando un cambio parecido.

Posibilidad de que en la carrera de Licenciado en Sistemas de Información de las Organizaciones se desarrolle software aplicado a las necesidades de los Contadores y Licenciados en Administración, y Licenciados en Economía o a las necesidades de las empresas, mediante becas, para su desarrollo.

Quiero proponer que, como parte de la cursada de una materia, se proponga un programa de intervención grupal voluntario en jornadas a realizarse en la facultad, relacionada con los temas vistos en clase, donde los alumnos cuenten sus experiencias en la implementación de los

Page 67: 8 Libros Tecnologia 2010

programas informáticos en las materias con posibilidad de intervención intra cátedra de alumnos y ayudantes docentes y profesores de la misma, con reuniones para la confección del mismo y una nota adicional a asignar a los alumnos participantes de dichas jornadas por la evaluación del trabajo de investigación realizado.

Que los alumnos deban bajar material de Internet, o visualizar presentaciones presentadas por profesionales en ciencias económicas, por ejemplo, en jornadas del consejo profesional, y realizar una reflexión sobre las mismas, en relación al tema visto en clase, y evaluar la posibilidad de que, a partir de la lectura de los temas de clase, se realicen presentaciones en PowerPoint corregidas previamente por el profesor a cargo de la materia con posibilidad de subirlas a Internet.

Ayudar a los alumnos a adquirir el hábito de organización de la información recibida, a través de mapas conceptuales digitales. Que los alumnos confeccionen los mismos como parte de una tarea optativa a realizar en clase, para organizar la información a estudiar.

A nivel de autoevaluación de los conocimientos adquiridos por los alumnos, evaluar la posibilidad de incorporar a la cursada software de autoevaluación, como por ejemplo: Clic 3.0, JClic, con la capacitación a los docentes en el uso del mismo.

Posibilidad de que en las instituciones educativas se incorporen becas para el desarrollo de estos cambios.

Gestión de visitas a empresas recuperadas, a través de la Secretaria de Bienestar Estudiantil, donde se puedan observar la aplicación práctica de los conocimientos aprendidos en las materias.

Desarrollar una semana en cada cuatrimestre, en la que diversas empresas posibiliten que alumnos de la facultad, realicen una experiencia educativa en su empresa, debiendo inscribirse anteriormente a tal efecto, en el área que sea de su interés, ayudando en tareas relacionadas con la especialidad elegida, y concurriendo durante dicha semana a la empresa asignada, cumpliendo un horario reducido. Debiendo luego realizar una síntesis del aprendizaje adquirido, para posibilitar crear una base de conocimientos adquiridos.

Programas para hacer mapas conceptuales:

http://cmaptools.softonic.com/

Page 68: 8 Libros Tecnologia 2010

http://freemind.softonic.com/

Programas para la elaboración de cuestionarios de autoevaluación por los alumnos:

Clic 3.0 y Clic disponibles en:

Para bajar Clic 3.0 y JClic:

http://www.argenclic.org.ar/

http://www.argenclic.org.ar/?page_id=569

http://www.argenclic.org.ar/?page_id=570

También deseo plantear la posibilidad de que se cree en la FCE de la UBA, el profesorado en Ciencias Económicas para la enseñanza a nivel medio y superior, como sucede en otras facultades, considerando la posibilidad de aplicar la modalidad a distancia o semipresencial para el desarrollo de diversas materias de la cursada.

Ya existe el profesorado en la Facultad de Exactas y Naturales, con un tronco común que corresponde a las carreras de la facultad y la posibilidad de luego desarrollar el profesorado, realizando materias pedagógicas, que habilitan para enseñar a nivel medio y terciario. También sucede lo mismo en la Facultad de Derecho.

REFERENCIAS BIBLIOGRÁFICAS

Batista, M. A; Celso, E. V; Usubiaga, G. G; Minici, V. (coord): (2007) Tecnologías de la información y la comunicación en la escuela: trazos, claves y oportunidades para su integración pedagógica. Buenos Aires, Ministerio de Educación, Ciencia y Tecnología de la Nación.

Curso de Aportes de las TIC´s a la Enseñanza Universitaria (con énfasis en Ciencias Económicas) del Programa de Formación Docente Continua, FCE, UBA.

También se consultaron distintas páginas de facultades nacionales, para conocer sobre la tecnología utilizada actualmente por las mismas.

Page 69: 8 Libros Tecnologia 2010

ANÁLISIS DEL IMPACTO DE POLÍTICAS PÚBLICAS EN LA

DISTRIBUCIÓN DEL INGRESO, LA INDIGENCIA Y LA POBREZA. DESCOMPOSICIONES MICRO-ECONOMÉTRICAS

CON STATA

Julio Eduardo Fabris Facundo Lastra

INTRODUCCION

Los cambios en la distribución del ingreso están asociados a la evolución de numerosos factores económicos y sociales que afectan la desigualdad en distinto sentido y magnitud, tales como la edad promedio de la población, las diferencias en el nivel educativo alcanzado, las decisiones de fertilidad al interior de un hogar, etc. En este sentido sería posible, por ejemplo, que pequeños cambios observados en la desigualdad fueran el resultado del accionar de fuerzas contrapuestas que se compensaran unas con otras.

La técnica de Descomposiciones Micro-econométricas constituye una avanzada metodología utilizada en el estudio de la desigualdad que, mediante un análisis contra-fáctico, permite descomponer sus cambios entre dos momentos del tiempo y observar el complejo proceso dinámico que usualmente domina a la evolución de la Distribución del Ingreso y el grado de desigualdad en ella presente.

Recientemente el gobierno argentino ha lanzado un plan social que consiste en un subsidio para los menores de 18 años que cubre la Canasta Básica Alimenticia (CBA) correspondiente a un adulto equivalente. En esta ponencia se desarrolla la metodología de micro-simulaciones, a partir de los micro-datos de la Encuesta Permanente de Hogares, para analizar los cambios generados en los principales indicadores de desigualdad y pobreza a causa de la implementación contra-fáctica de dicha política sobre la población del Gran Buenos Aires.

Para cuantificar las consecuencias de la política adoptada, se calculará en los datos modificados el coeficiente de Gini y los indicadores indigencia y pobreza. Una vez obtenidos estos datos es posible realizar una comparación con los registros originales y evaluar cuantitativamente el resultado de la política aplicada.

Page 70: 8 Libros Tecnologia 2010

1. LA ASIGNACIÓN UNIVERSAL POR HIJO PARA PROTECCIÓN SOCIAL

La política cuyos efectos se analizan en esta ponencia es el programa de Asignación Familiar por Hijo, implementado a partir del año 2009 por el Estado argentino.

El plan de Asignación Universal por Hijo consiste en otorgar un determinado monto de dinero por hijo o nieto a cargo que sea menor de edad. El subsidio está destinado a todo hogar cuyo jefe y cónyuge se encuentren desempleados o tengan un empleo informal (no registrado y sin beneficios sociales). Generalmente, las asignaciones por hijo se realizan teniendo en cuenta las unidades de adulto equivalente según los regímenes alimenticios.

Para aplicarlo a la EPH del 3er trimestre del año 2009, se considera un subsidio para los menores de 18 años que es igual a un 180 $. A través de esta política, los hogares con problemas de empleo recibirían una asignación de 180 $ por cada menor de edad, monto que supera el valor correspondiente a la Canasta Básica Alimentaria, que para el período fue de 146,71 $.

2. DESCRIPCION DE LA METODOLOGÍA

La metodología que se utiliza es el método de micro-simulaciones, implementado a partir de los datos de la Encuesta Permanente de Hogares (EPH) correspondiente al 3er trimestre de 2009 (La última disponible antes de la implementación de la Asignación). Mediante este método se analizan los cambios generados en los principales indicadores de pobreza, indigencia y distribución del ingreso al efectuar la política pública mencionada.

Para comenzar se calculan los índices de indigencia, pobreza y distribución del ingreso (se utilizará el índice de Gini) tanto para los hogares como para las personas. Luego se simulan, en la población constituida por los individuos relevados en el período de base, las características del ingreso que rigen luego de la aplicación de la política. En nuestro caso este paso consistirá en detectar a los menores susceptibles de recibir el subsidio y sumar dicha asignación al ingreso de la familia. A posteriori se recalculan índices de indigencia, pobreza y distribución del ingreso para la población inicial con su ingreso modificado.

Page 71: 8 Libros Tecnologia 2010

De esta manera, es posible calcular cuál sería el impacto en los indicadores ante una política económica como la que estamos analizando.

3. EL SOFTWARE ESTADÍSTICO STATA

El análisis moderno de la pobreza y la distribución del ingreso, requiere organizar y transformar los micro-datos de las encuestas de hogares para luego extraer información estadística y realizar los cálculos, según los requerimientos del investigador. Se presentan entonces restricciones sobre la herramienta informática a utilizar, dado el volumen de datos y las necesidades de procesamiento y análisis.

En los últimos años, la elección del software para estos fines en la comunidad científica se orientó mayoritariamente hacia dos herramientas: SPSS y STATA. Aunque ambas herramientas cumplen con los requerimientos señalados, en el ámbito de las ciencias económicas se observa cierta preferencia por el uso de STATA frente al SPSS, este último de mayor difusión entre los investigadores provenientes de otras ciencias sociales.

En cuanto a la facilidad de uso, a pesar de que STATA presenta una interfaz más rudimentaria de tipo línea de comando y una curva de aprendizaje ligeramente empinada, relacionada con la versatilidad de la herramienta y la gran variedad de comandos provistos, presenta beneficios inmediatos en la personalización mediante la programación sencilla de rutinas y complementos, lo que la convierte en una herramienta extensible y modular.

Las rutinas de transformación y análisis de datos, así como la presentación de resultados se procesan en cualquier editor de texto en archivos con extensión *.do, como una sucesión de comandos (archivo de procesamiento por lotes). Así, los investigadores pueden proveer un archivo con los datos y otros con rutinas de transformación, análisis y presentación final de resultados para que cualquier otro pueda reproducir su análisis.

Un subproducto de esta facilidad es que a través de grupos de usuarios se crean nuevos comandos continuamente. En cuanto al análisis distributivo, un paquete de comandos de dominio público muy conocido es inequal7.do, que calcula índices de desigualdad y que utilizaremos en esta

Page 72: 8 Libros Tecnologia 2010

ponencia, con las principales descomposiciones, curvas de Lorenz y otros índices.

4. APLICACIÓN DE LA TÉCNICA DE EVALUACIÓN DE POLÍTICAS

En Argentina el cálculo de la pobreza se realiza mediante la determinación de las llamadas “líneas de pobreza” de distinto tipo.. El procedimiento está detallado por el Instituto Nacional de Estadísticas y Censos (INDEC)1

También aparecen dos líneas de pobreza, la de pobreza extrema (denominada "línea de indigencia") constituida por el costo de la Canasta Básica de Alimentos (CBA) y la de pobreza moderada, en la cual la CBA es expandida para considerar el conjunto de gastos mediante el método de Orshansky

. El documento es una guía práctica para el cálculo, la que hemos aprovechado para recalcular los índices utilizando el software STATA. En la metodología a seguir aparece la operacionalización de los denominados "índices de equivalencia" que refieren a las distintas necesidades de los integrantes del hogar según su sexo y edad.

2

Una vez que se estableció la línea de pobreza, es decir el ingreso o el valor monetario del consumo que separa los pobres de los no pobres, se puede comenzar a elaborar los indicadores, es decir los datos finales con los que el investigador realizará el análisis. Los más difundidos son aquellos planteados por Foster, Greer y Thorbecke

que consiste en multiplicar por la inversa del coeficiente de Engel (proporción del gasto en alimentos sobre el gasto total), dando como resultado la Canasta Básica Total (CBT).

3

qIn

=

El más sencillo de éstos es el de incidencia de la pobreza, el cual indica la proporción de la población (o de los hogares) que se encuentra por debajo de la línea de pobreza. La incidencia se expresa como

donde I es el indicador, q es la cantidad de personas u hogares pobres y n es el número total de personas u hogares en la población estudiada.

1 Ver INDEC: 2003 c y también INDEC: 2003 b 2 Ver Fisher: 1992 3 Ver World Bank: 2005

Page 73: 8 Libros Tecnologia 2010

4. 1 Cálculo de los índices originales (reales)

Lo primero que debemos hacer es eliminar los datos inválidos correspondientes a los valores de la variable “deccf”4

Tabla 1.

iguales a 12. Cuando los organismos de estadística culminan con la recolección de las encuestas, pasan a analizar las mismas. En este proceso, algunos registros presentan deficiencias que los hacen no aptos para algunos usos. Por ejemplo, si un individuo declara estar ocupado pero se niega a declarar su ingreso, dicho registro es útil para determinar tasas laborales pero no lo es para medir pobreza o desigualdad. La consecuencia de esta última situación es la asignación del registro al decil 12 (obviamente inexistente) de ingresos, lo cual indica al analista no tener en cuenta el mismo. Una situación similar ocurría con los hogares donde no se registraban ingresos. Hasta el año 2006 el INDEC no incluyó en el primer decil de ingreso a los hogares sin ingreso. Es por eso que también hay hogares asignados al decil 0 (también inexistente). Estos últimos los conservaremos en el cálculo.

4 Variable reportada en la EPH que indica el decil de ingreso del hogar

Page 74: 8 Libros Tecnologia 2010

Luego debemos crear una nueva variable que denominaremos “ad_eq”

y que para cada registro tomará el valor de la fracción de adulto equivalente que le corresponde al individuo, de acuerdo con su edad y sexo.

Luego se crea la variable cant_eq que será igual a la sumatoria de los valores del campo correspondiente a las unidades de adulto equivalente “ad_eq” correspondientes a cada hogar. De esta manera, se obtiene como resultado las unidades de adulto equivalente correspondiente al hogar en su totalidad para cada uno de los registros.

Luego se generan las variables correspondientes a las CBA y CBT (cbal y cbt) para cada hogar. O sea que en la metodología utilizada por el INDEC se calcula una CBA y una CBT “a medida” para cada hogar, con base en la cantidad de “adultos equivalentes” del mismo. Para asignar un valor a estos nuevos campos para cada uno de los registros debemos multiplican la cantidad de adultos equivalentes del hogar por el valor de la CBA y de la CBT para un adulto equivalente, para ese momento (En este caso el valor de la CBA para el tercer trimestre de 2009 es de 146,71 $ y el de la CBT es de 331,76 $). Por ejemplo para una familia formada por un padre de 40 años, una madre de 32 años y dos hijos, un varón de 11 y una mujer de 5 años, la cantidad de adultos equivalentes del hogar será de 3,2 (1 + 0,74 + 0,83 + 0,63).

Una vez hecho esto, se crean las variables “pobre” e “indigente” que tendrá valor 0 o 1 dependiendo de si el ingreso total familiar (itf)5

Una vez hechas todas estas modificaciones, se procede al cálculo de los indicadores de incidencia de la pobreza e indigencia, tanto para hogares como para individuos. Como las nuevas variables “pobre” e “indigente” poseen valores de 0 a 1, el promedio de cada variable nos indica el porcentaje de pobres o indigentes de la población respectivamente (note que una persona es pobre si pertenece a un hogar pobre, es decir el foco se pone en el hogar).

es mayor o menor que la CBA correspondiente al hogar. Un procedimiento análogo se sigue con la variable “pobre” y la CBT.

Debe tenerse en cuenta que debe aplicarse un promedio ponderado, ya que cada hogar tiene una representatividad diferente, que viene dada por el campo “pondera”.

5 Variable reportada en la EPH

Page 75: 8 Libros Tecnologia 2010

Si se observa la media llegamos a la conclusión de que

aproximadamente el 3,26 % de los hogares está bajo la línea de indigencia, y no llegan a cubrir sus necesidades alimentarias básicas.

En el apéndice a esta ponencia se consigna el texto de un archivo de formato *.do llamado “Adulto equivalente.do”. En éste se encuentran todos los comandos con los que se ha trabajado para hacer el cálculo anterior mediante las aplicaciones de STATA.

Un archivo *.do es una secuencia de comandos que equivale a una sesión de STATA. Si se carga la base de datos y se "corre" (en inglés "run") el archivo, los comandos se ejecutan en el orden secuencial en que aparecen, con lo cual se ejecuta de una vez toda la rutina. Se utilizan mucho cuando las secuencias son largas para no tener que operar comando por comando.

El cálculo de estos indicadores se visualiza mediante la ventana de resultados de STATA de la siguiente manera:

Para obtener el índice para las personas simplemente se realiza el promedio ponderado antes explicado. Para obtener el índice referido a los hogares se considera simplemente una persona por hogar (el jefe de hogar, que siempre existe). El campo que distingue a los jefes es el “ch03” con valor igual a 1.

También se debe realizar el cálculo del coeficiente de Gini sobre la población original. Este se realiza sobre la variable que corresponde al

Page 76: 8 Libros Tecnologia 2010

ingreso per cápita familiar (“ipcf” en la base de datos de la EPH) a través del comando “inequal7”. En la pantalla de resultados se puede ver que este coeficiente es aproximadamente igual a 45,65 puntos porcentuales:

También se calcula el Gini del ingreso total familiar (“itf” en la base de datos de la EPH). Para obtener el índice referido a los hogares se considera simplemente una persona por hogar (el jefe de hogar, que siempre existe). El campo que distingue a los jefes es el “ch03” con valor igual a 1.

4.2 Modificación contra-fáctica de los datos (micro-simulación)

Una vez que se han obtenido los indicadores con la población original, mediante modificaciones a esta base de datos, se construye una población contra-fáctica que recibirá el subsidio antes mencionado.

Crearemos una variable que indique si la familia está incluida o no en el plan. Llamaremos a la variable “excluido” y dicha variable (válida para

Page 77: 8 Libros Tecnologia 2010

todos los integrantes de cada hogar) tomará valor 1 en el caso de exclusión y valor 0 en el caso de no exclusión.

. gen excluido=0

Quedarán excluidos, para comenzar, los hogares cuyo jefe o cónyuge sean trabajadores en blanco (aportan jubilaciones), ya que ellos reciben la asignación por hijo desde el ANSES. Para esta exclusión utilizaremos las variables pp07i y pp07h, además de la variable ch03 que indica si el aportante es jefe de hogar o cónyuge

. replace excluido=1 if (pp07i==1 | pp07h==1) & (ch03==1 | ch03==2)

Quedan incluidas las empleadas domésticas, y las identificamos cuando la variable pp04b1 toma valor 1

. replace excluido=0 if pp04b1==1

Quedan excluidos los hijos que van a colegios privados, lo cual se verifica con la variable ch11 que toma el valor 2 y se considera dicho caso cuando se trata de un menor de 18 años

. replace excluido=1 if ch11==2 & ch06<18 & (ch03==3 | ch03==5)

Finalmente quedan excluidos los hogares en que el jefe o cónyuge gane más de 1500

. replace excluido=1 if p21>1500

Todas estas causales de exclusión se toman en cuenta en una variable global llamada “cantexcluidoporhogar” que suma todas las excepciones. Sólo se incluirán los hogares con un valor de dicha variable igual a 0.

. egen cantexcluidoporhogar= sum ( excluido ), by (CODUSU)

Luego se crea una variable llamada “plansocial” con valor igual a cero. Este será el campo que indique la cantidad de dinero que percibirá el beneficiario en la base de datos contrafáctica que se está construyendo. A esta variable se le da el valor de 180 (pesos) si se trata de un menor de un hogar no excluido

. gen plansocial=0

Page 78: 8 Libros Tecnologia 2010

. replace plansocial=180 if cantexcluidoporhogar==0 &

ch06<18 & (ch03==3 | ch03==5)

Esta suma entrará a formar parte del ingreso familiar, por lo que deberá generarse este itf2 (ingreso total familiar contra-fáctico). Se suman los ingresos familiares incluyendo la Asignación Universal por Hijo,

. egen itf2= sum ( p47t + plansocial ), by (CODUSU)

Con el nuevo campo “itf2” es posible calcular los indicadores de la pobreza e indigencia de la nueva población contra-fáctica que se ha creado. Pero también es necesario construir un nuevo registro del ingreso per cápita familiar al que llamaremos “ipcf2” para el cálculo del Gini.

Para crearlo hay que dividir al nuevo ingreso total familiar (“itf2”) por la cantidad de integrantes del hogar. En primer lugar, se crea una nueva variable con valor igual a 1 llamada “integrante”:

. gen integrante=1

Luego se utiliza el comando egen de forma similar a como se ha hecho anteriormente. Esta vez sumando los valores del campo “integrante” y agrupando por hogares a través de la variable “codusu”:

. egen cant_integrantes= sum ( integrante ), by (CODUSU)

Por último se pasa a calcular el nuevo ingreso per cápita laboral generando la variable “ipcf2”, que es igual a la división entre el nuevo ingreso total familiar (“itf2”) y la cantidad de integrantes por hogar (“cant_integrantes”).

. gen ipcf2= itf2 / cant_integrantes

Con esto se ha completado la modificación de la base de datos, asignando la AHU a las familias a las que les corresponde. Por lo tanto lo que sigue es el recálculo de los indicadores de pobreza y desigualdad para esta población modificada.

4.3 Cálculo de los indicadores en los datos transformados

Con las nuevas variables construidas se pueden recalcular los índices de pobreza e indigencia utilizando el mismo procedimiento que para la base de datos original. Para establecer qué registros quedarían por debajo de la línea de indigencia luego de aplicar este plan social se crea un campo

Page 79: 8 Libros Tecnologia 2010

llamado “indigente2” con valor igual a cero, asignándole valor igual a 1 para aquellos registros cuyo nuevo nivel del ingreso total familiar (“itf2”) sea menor a la Canasta Básica Alimenticia (“cbal”).

. generate float indigente2=0

. replace indigente2= 1 if itf2<cbal

Luego, se realiza un procedimiento análogo para la línea de la pobreza, comparando al campo “itf2” con la Canasta Básica Total (“cbt”).

. generate float pobre2=0

. replace pobre2= 1 if itf2<cbt

Tan sólo resta realizar los cálculos de indigencia y pobreza para jefes de hogar y personas a partir de los campos “indigente2” y “pobre2”.

En forma similar se calculan los indicadores de desigualdad, individual y familiar:

Page 80: 8 Libros Tecnologia 2010

5. ANÁLISIS ALTERNATIVO: DATOS DE LA CONSULTORA FIEL

Debido a la polémica generada respecto de la confiabilidad de los datos relevados por el INDEC, en la actualidad varias consultoras generan datos alternativos de inflación especialmente. En el caso de la metodología para la medición de la pobreza la incidencia de este debate se focaliza en la valuación de las canastas (CBA y CBT), ya que ambas implican una valorización actualizada de los alimentos. En el caso de la desigualdad, esta no se ve afectada.

Es por eso que se ha decidido rehacer los cálculos tomando como cestas alternativas las calculadas por la consultora FIEL, que difieren mucho de las que calcula el INDEC, esencialmente por la diferente valoración de la inflación.

No se ha creído necesario consignar los pasos metodológicos, que son los mismos que para el caso del INDEC, con la única diferencia de la

Page 81: 8 Libros Tecnologia 2010

valoración de las canastas. Por supuesto las valoraciones iniciales de pobreza e indigencia también cambiarán. En el cuadro se indican los valores de pobreza e indigencia para hogares y personas de acuerdo a las canastas del INDEC y de FIEL:

Cuadro 1.

6. ANÁLISIS DE LOS RESULTADOS Y CONCLUSIONES

Como una forma resumida de presentación de los resultados se han elaborado unos cuadros en los que se presenta la situación de Indigencia, Pobreza (en estos dos casos para las versiones INDEC y FIEL) y Desigualdad antes y después de la AUH. Debe tenerse en cuenta que se trata de un análisis contra-fáctico basado en una encuesta cuya cobertura no es exhaustiva (sólo se relevan aglomerados urbanos) y que considera una asignación ideal con base en los datos de la población relevada.

Cuadro 2.

Hogares Personas Hogares PersonasSin AUH 3,26% 4,14% 6,68% 9,18%Con AUH 1,56% 1,36% 3,60% 4,49%

Disminución 52,15% 67,15% 46,11% 51,09%

INDIGENCIAINDEC FIEL

En el caso de la indigencia las variaciones son muy importantes, tanto para el caso de las canastas de INDEC como las de FIEL. En el primer caso la indigencia en hogares se reduce a menos de la mitad mientras que en segundo la reducción es un poco menor.

Cuadro 3.

Hogares Personas Hogares PersonasSin AUH 10,04% 13,96% 17,71% 24,50%Con AUH 6,47% 8,73% 15,46% 21,70%

Disminución 35,56% 37,46% 12,70% 11,43%

POBREZAINDEC FIEL

Page 82: 8 Libros Tecnologia 2010

Para el caso de la pobreza la reducción es significativa, aunque su

incidencia es menor. La intuición es que la suma asignada logra “alimentar” los pobres pero no logra sacarlos de la situación de pobreza.

Cuadro 4.

Hogares PersonasSin AUH 42,84 45,65Con AUH 41,48 43,94

Disminución 1,36 1,71

DESIGUALDAD (GINI)

También se registrará una disminución de la desigualdad personal en el ingreso. El coeficiente de Gini para los hogares ha pasado de 42,84 puntos a 41,48 en la población contrafáctica, lo que puede considerarse como una mejora significativa en la distribución del ingreso.

Para el caso de la distribución personal, se puede determinar que esta política de transferencia ha llevado al Gini del ingreso personal de 45,65 puntos en la población original al 43,94 en la contra-fáctica.

A través del análisis mediante microsimulaciones, se puede concluir que esta política está focalizada a solucionar las situaciones de indigencia y no las de pobreza ni la desigualdad.

La segunda conclusión que puede extraerse es que el análisis contrafáctico es eficaz para la evaluación de políticas sociales, ya que permite cuantificar con bastante precisión los cambios que se lograrán en los indicadores.

REFERENCIAS BIBLIOGRÁFICAS

Beccaria, L., Feres, J.C., Sáinz, P. (1997): “Medición de la pobreza: Situación actual de los conceptos y métodos” en La medición de la pobreza: el método de las líneas de pobreza. 4º. Taller Regional. CEPAL.

Fisher, G. (1992): “The Development of the Orshansky Poverty Thresholds and Their Subsequent History as the Official U.S. Poverty Measure”, Poverty Measurement Working Papers,U.S. Census Bureau (disponible en

http://www.census.gov/hhes/www/povmeas/papers/orshansky.html )

Page 83: 8 Libros Tecnologia 2010

INDEC (1991): Diseño de registro de la Encuesta Permanente de Hogares, Instituto Nacional de Estadísticas y Censos. Argentina.

INDEC (2003 a): La nueva Encuesta Permanente de Hogares de Argentina.

INDEC (2003 b): Acerca del método utilizado par la medición de la pobreza en Argentina.

INDEC (2003 c): Incidencia de la pobreza y de la indigencia en los aglomerados urbanos.

McMahon, M. (2005): Introduction to Stata. Mimeo.

Ravaillon, M. (1999): “Las líneas de pobreza en la teoría y en la práctica” en Carpio, J. Y Novacovski, I. (Comps.) De Igual a Igual. El desafío del Estado ante los nuevos problemas sociales. FCE/SIEMPRO/FLACSO. Buenos Aires.

World Bank (2005): Introduction to Poverty Analysis, World Bank Institute.

Page 84: 8 Libros Tecnologia 2010
Page 85: 8 Libros Tecnologia 2010

MODELOS DE EQUILIBRIO GENERAL COMPUTABLE CON

EXCEL Agustina Colloca

Iván Conlon Julio Eduardo Fabris

María Sofía Molina Bulla

INTRODUCCIÓN

En las materias de la licenciatura de Economía referidas a la Microeconomía, muchas veces se hace referencia a los modelos de Equilibrio General, inspirados en las contribuciones pioneras de Leon Walras y en los desarrollos topológicos de Arrow y Debreu para las demostraciones de la existencia del equilibrio. Sin embargo, desde hace algunos años, estos abstractos desarrollos teóricos han devenido una herramienta práctica de evaluación de políticas, a partir del avance computacional.

Es así como se ha popularizado últimamente en la investigación económica la utilización de modelos de Equilibrio General Computable (EGC) para comparar el impacto de las políticas implementadas y de los choques (shocks) exógenos sobre los precios relativos, el producto, el empleo en los distintos sectores, el ingreso y el consumo de los hogares.

Estos modelos permiten tratar separadamente el impacto de políticas específicas y de shocks externos. Se construyen matrices de contabilidad social específicas a partir de los datos de las Cuentas Nacionales y se utilizan las mismas para elaborar modelos de equilibrio general que se procesan mediante programas de computación (GAMS, GEMPACK, etc.)

Una forma de llevar al aula estos avances es mediante la implementación de modelos simples que pueden ser resueltos con el software Microsoft Excel, la popular planilla de cálculo de uso intensivo en el ámbito empresarial y académico.

En esta ponencia desarrollamos la metodología y los fundamentos teóricos necesarios para llevar los modelos de Equilibrio General Computable al aula, con un software difundido y amigable, y resolviendo numéricamente los cambios en el bienestar provocados por distintas políticas económicas (típicamente impositivas y redistributivas)

Page 86: 8 Libros Tecnologia 2010

1. UN MODELO DE EQUILIBRIO GENERAL DE INTERCAMBIO

En esta parte presentaremos una introducción conceptual y gráfica al Equilibrio General. Analizaremos de qué forma las condiciones de demanda y de oferta de los diversos mercados determinan los precios de los distintos bienes.

Es usual considerar que el precio de un bien se verá afectado por la oferta y la demanda del mismo en su propio mercado. Lo que generalmente se deja de lado en los análisis de mercado aislado (también llamados de equilibrio parcial), es que a su vez la mencionada demanda del bien se alterará, en cierta medida, por los cambios en los precios de los otros bienes, ya sea porque son bienes complementarios o porque son bienes sustitutos del bien considerado. Por otra parte, los cambios en las cantidades efectivamente compradas de otros bienes influirán en la renta disponible para la compra del bien estudiado, alterando también las condiciones del equilibrio en el mercado.

En general, si se considera que estas influencias de segundo orden sobre el equilibrio en un mercado son pequeñas, es aceptable hacer caso omiso de ellas. Pero esto no es siempre así, por lo que muchas veces se impone realizar un análisis más completo que incluya a todos los bienes de la economía.

Dado que se trata de un problema complejo, para su abordaje adoptaremos una serie de supuestos simplificadores:

• Intercambio puro. En una primera instancia analizaremos un modelo sin producción, en el cual los individuos poseen cantidades fijas de bienes y las intercambian buscando aumentar su utilidad.

• Mercados competitivos. Sólo se analizará la conducta en estos mercados. Una caracterización de los mismos para el caso del intercambio considera que ningún individuo tiene poder de mercado, debido a que su consumo es muy pequeño en relación al consumo total de la economía. Por lo tanto los consumidores considerarán a los precios como dados.

• Consideraremos sólo dos bienes y dos consumidores. La exposición será así más sencilla. Haremos caso omiso de la contradicción entre estos dos últimos supuestos, suponiendo que los dos consumidores se comportan “como si ” el mercado fuera competitivo

Page 87: 8 Libros Tecnologia 2010

1.1. La caja de Edgeworth

Para estudiar los distintos resultados posibles del proceso de intercambio entre 2 personas utilizaremos un instrumento gráfico denominado “Caja de Edgeworth”1

Sean los dos individuos A y B y los dos bienes 1 y 2 respectivamente. Cada uno tendrá su propia cesta de bienes inicial, con la que llega al mercado, a la que llamamos la “dotación” del individuo, compuesta por los únicos dos bienes existentes en la economía.

. En ella podremos representar las dotaciones y las preferencias de los individuos.

La dotación del individuo A será ( )1 2;A A AW w w= donde 1Aw y 2

Aw

representan las cantidades de bienes tipo 1 y 2 pertenecientes al consumidor A. Análogamente la dotación del individuo B será

( )1 2;B B BW w w= . Llamaremos al par de cestas AW y BW la dotación de la

economía y la indicaremos con la letra W.

Por otra parte cada individuo, luego del intercambio, resultará con una cesta de consumo La del individuo A será y la del individuo B será . Llamaremos al par de cestas de

consumo y asignación de la economía y la indicaremos con la letra X.

Es condición para que una asignación sea viable que la cantidad total utilizada sea igual a la cantidad total disponible.

La “Caja de Edgeworth” es un gráfico cuyas dimensiones se eligen de manera que la base de la caja representa la cantidad total del bien 1 existente en la economía y la altura de la misma la cantidad total del bien 2. Las decisiones de consumo del individuo A se miden a partir de la esquina inferior izquierda (en horizontal el bien 1 y en vertical el bien 2), mientras que las decisiones del individuo B a partir de la esquina superior derecha (los mismos sentidos pero en dirección opuesta).

1 La caja de Edgeworth debe su nombre a Francis Ysidro Edgeworth (1845-1926) economista inglés que utilizó por primera vez este instrumento analítico.

Page 88: 8 Libros Tecnologia 2010

Cada punto de la caja de Edgeworth, dada la elección de sus medidas,

indica las cantidades que pueden tener tanto A como B en tanto se mantengan las igualdades indicadas más arriba. Observando el eje de abscisas y tomando como origen la esquina inferior izquierda veremos que la distancia horizontal hasta el punto indicado como W, representa la cantidad que posee inicialmente A del bien 1.

Si tomamos como origen la esquina superior derecha veremos que la distancia horizontal hasta el mismo punto W, representa la cantidad que posee B del bien 1. En forma similar, las distancias a lo largo del eje de ordenadas representan las cantidades que poseen A y B del bien 2. Por lo tanto los puntos de la caja de Edgeworth representarán todas las asignaciones viables dentro de la economía.

Figura 1. Caja de Edgeworth 2

Las curvas de indiferencia de la persona A se trazan de manera habitual. Para trazar las curvas de indiferencia de la persona B el procedimiento es algo distinto. Primero se trazan tradicionalmente las

2 Gráfico tomado de Varian: 1999

Page 89: 8 Libros Tecnologia 2010

curvas y luego se “dan vuelta”, de manera que el origen sea el extremo superior derecho de la caja y se superponen a las de A.

Para el caso del consumidor A, como es habitual, a medida que nos alejemos hacia la derecha arriba del vértice A, alcanzaremos asignaciones de utilidad creciente para A. De manera similar, para el consumidor B, a medida que nos desplacemos en sentido descendente y hacia la izquierda del vértice B alcanzaremos asignaciones de utilidad creciente para B. Como resultado de este análisis la caja de Edgeworth nos proporciona todas las asignaciones viables de la economía y las preferencias de los consumidores.

Para saber qué tipos de intercambios pueden ocurrir en esta economía debemos analizar cuáles son las cestas que le proporcionan mayor bienestar a cada uno de los individuos a partir de la dotación inicial con la que cuentan. En la figura 1 la dotación inicial está representada por el punto W, que se encuentra sobre una curva de indiferencia del agente A y sobre una curva de indiferencia del agente B, que en este caso se cortan. Al individuo A le proporcionarán un mayor bienestar todas las cestas que se encuentren por encima de la curva de indiferencia que pasa por la dotación inicial. Al individuo B le sucede lo mismo, (pero desde su punto de vista). Nuestro objetivo es identificar la zona de mutuo beneficio, es decir donde tanto el bienestar de A como el bienestar de B mejoren. En la figura 1 esta área está representada por la zona sombreada con forma de lente. Con el correr de las negociaciones A y B encontrarán un intercambio mutuamente ventajoso que los desplazará a algún punto dentro del área sombreada. Por ejemplo podría ser el punto M.

Para desplazarse hacia M el individuo A renuncia a unidades

del bien 1 y recibe a cambio del bien 2. Por lo tanto el individuo

B recibe unidades del bien 1 y renuncia a unidades

del bien 23

Si resulta ser que en este punto M las curvas de indiferencia de A y B se cortan, existirá nuevamente un área en forma de lente donde puedan encontrarse asignaciones mutuamente ventajosas y así el intercambio volvería a producirse. Si repitiéramos este mismo procedimiento una y otra

.

3 Verificar que = y que =

Page 90: 8 Libros Tecnologia 2010

vez el comercio continuaría hasta ya no exista ningún intercambio mutuamente ventajoso.

Dicho punto está representado en la figura 2 por el punto M. En dicho punto, como puede observarse, ya no hay corte de curvas de indiferencia (lo que indicaría la existencia de una nueva área de mutuo beneficio) sino tangencia de las mismas. El conjunto de puntos situados por encima y a la derecha de la curva de indiferencia en la que se encuentra A no tiene puntos en común con el conjunto de puntos situados por debajo y a la izquierda de la curva de indiferencia en la que se encuentra B. Por lo tanto no hay ningún movimiento posible dentro de la caja que mejore el bienestar de alguno de los 2 individuos sin empeorar el del otro. Es decir si nos moviéramos del punto M no sería un intercambio mutuamente ventajoso.

1.2. La eficiencia en el sentido de Pareto

Al tipo de asignación como la que representa el punto M se denomina asignación eficiente en el sentido de Pareto. Cada una de las personas se encuentra en su curva de indiferencia más alta posible, dada la curva de indiferencia de la otra persona. La línea que conecta esos puntos en toda la caja se denomina “conjunto de Pareto” o “curva de contrato”.

Desde un punto de vista gráfico, se puede decir que la curva del contrato es el lugar geométrico de los puntos para los cuales las curvas de indiferencia de A y B son tangentes entre sí. Si se cortaran existirá un área de mutuo beneficio y ese punto no será eficiente en el sentido de Pareto.

Es interesante destacar la diferencia entre los conceptos de equidad y eficiencia, entendida ésta en el sentido de Pareto. Si la asignación en una economía está representada por un vértice, por ejemplo el vértice A, en esta situación B tiene todo, sin embargo es una situación eficiente dado que la única manera de mejorar el bienestar de A es quitándole algo a B.

Page 91: 8 Libros Tecnologia 2010

Figura 2. Asignación eficiente en el sentido de Pareto

El conjunto de Pareto es en sí mismo independiente de la dotación

inicial, sólo se ve condicionado a ella en la medida en que esta determina las cantidades existentes de ambos bienes y en consecuencia las dimensiones de la caja de Edgeworth.

1.3. El intercambio de mercado

Analizaremos el proceso de intercambio en un mercado competitivo. Para ello debemos incluir un personaje más a nuestro análisis, el subastador4

Habrá dos tipos de demanda a considerar, la demanda bruta y la demanda neta. La demanda bruta es la cantidad total demandada de un bien a los precios vigentes. Son las cantidades que desea consumir la persona. La demanda neta es la diferencia entre la dotación inicial y la

. El subastador elegirá un precio para el bien 1 y otro precio para el bien 2. Los agentes teniendo en cuenta esos precios podrán determinar el valor de su dotación y así elegir las cantidades que van a intercambiar.

4 Walras introdujo la figura del subastador como una forma de explicar el proceso de tanteo (tatonement) por el que se llega al equilibrio en los mercados

Page 92: 8 Libros Tecnologia 2010

demanda bruta. Son las cantidades que desea comprar. También se la suele denominar como exceso de demanda.

Figura 3. El proceso de “tanteo” para llegar al equilibrio

Algebraicamente:

exceso de demanda del bien 1 del agente A

demanda bruta del bien 1 del agente A

dotación inicial

El problema surge al no haber garantía alguna de que a los precios arbitrarios sugeridos por el subastador la oferta sea igual a la demanda. Es decir que las cantidades que quiere comprar (vender) A no tienen por qué ser iguales a las cantidades que quiere vender (comprar) B.

Para equilibrar estas situaciones de desequilibrio el subastador se propone la siguiente estrategia :

• Si hay exceso de demanda de un bien : sube su precio • Si hay exceso de oferta de un bien : baja su precio

Page 93: 8 Libros Tecnologia 2010

Figura 4. El equilibrio en la caja de Edgeworth

Como la recta presupuestaria queda definida con la relación de precios,

lo que importa es la relación entre 1p y 2p , o sea 1p / 2p , también

referido como el precio relativo. Si se sigue este proceso de ajuste hasta que la oferta sea igual a la demanda, es decir hasta que la cantidad que quiera vender el individuo A sea igual a la cantidad que quiera comprar el individuo B y viceversa, se llega así a una situación de equilibrio, caracterizada por ser una asignación viable y a la vez eficiente en el sentido de Pareto considerando la dotación inicial de bienes.

A este equilibrio se lo denomina equilibrio walrasiano y su

significado es que dado un conjunto de precios cada consumidor elige la cesta que prefiere de las que le son asequibles. Las decisiones de todos los consumidores son compatibles y por lo tanto la oferta iguala a la demanda.

2. EL CÓMPUTO DEL EQULIBRIO EN EL INTERCAMBIO

Una vez presentado el marco teórico del equilibrio general, surge el problema operativo de encontrar dicho punto de equilibrio. Este problema

Page 94: 8 Libros Tecnologia 2010

se ha resuelto en forma reciente. El primer modelo de equilibrio general computable fue el desarrollado por Johansen en 19605, quien adoptó una técnica de linealización de las ecuaciones no lineales del modelo. Sin embargo, el avance realmente decisivo fue el algoritmo de resolución de Scarf formulado primeramente en 19696

Uno de los precursores en el desarrollo de los algoritmos que culminaron con el aporte de Scarf fue un economista matemático argentino : Rolf Mantel. Este último había sido alumno de Scarf en Yale (Scarf y Koopmans codirigieron su tesis doctoral) y sus trabajos en el tema

, el cual es usualmente reconocido como el aporte que transformó el modelo de equilibrio general de una construcción puramente teórica a una útil herramienta del análisis de políticas económicas, permitiendo a los analistas salir de las estrechas fronteras de los sistemas de ecuaciones lineales.

7

Luego, desde comienzos de los años 80, las mejoras en el software y en la capacidad de procesamiento de las computadoras personales han hecho de los modelos de Equilibrio General Computable una herramienta accesible a un amplio círculo de académicos y analistas económicos.

, si bien no llegaron a una solución definitiva del problema, claramente allanaron el camino para los posteriores aportes.

Los programas de cómputo que se utilizan en la profesión son bastante especializados8 y para su utilización se requiere de conocimientos de programación estructurada. Algunos economistas sin embargo proponen para la resolución de pequeños modelos la utilización de programas más accesibles y sencillos, en particular la popular planilla de cálculo Excel9. En esta parte desarrollaremos la resolución de un modelo de equilibrio general para el intercambio mediante el solver10

de Excel.

2.1. Especificación del modelo

El análisis se lleva a cabo sobre una economía de intercambio constituida por dos consumidores y dos productos. Cada consumidor 5 Johansen: 1960 6 Scarf: 1969 7 Mantel: 1966 8 Los más utilizado son GAMS y GEMPACK 9 Devarajan et al: 1997 10 El solver es una rutina incluida en el programa que resuelve problemas numéricos mediante métodos iterativos.

Page 95: 8 Libros Tecnologia 2010

cuenta al inicio con su respectiva dotación de bienes. Adoptaremos para la utilidad de los individuos funciones de tipo Cobb-Douglas. Así, tenemos funciones de utilidad de los agentes de la forma:

1 21 2( , )U x x x xα β=

Los valores de α y β definen el grado de preferencia del consumidor por el bien correspondiente. Las dotaciones de los agentes las supondremos opuestas, en el sentido de que el agente A tiene todo lo que existe del bien 1 y el agente B tiene todo lo que existe del bien 2. De esta forma aseguramos de manera extrema la existencia de necesidad de intercambio entre los agentes, ya que debido a la forma de las curvas de preferencias resultantes de su función de utilidad sabemos que los agentes prefieren consumir un poco de ambos bienes a mucho de uno solo.

Los consumidores maximizan su función de utilidad dados los precios y la valuación de sus respectivas dotaciones a esos precios, la que establece una especie de “ingreso posible” que indica su restricción presupuestaria.

Para cada consumidor i = 1, 2 las funciones de demanda son:

1 1 21

( ; ; ) iii

mx p p m

p

β= 2 1 2

2

( ; ; ) iii

mx p p m

p

β=

con 1 1 2 2i i

im p w p w= +

Para resolver el modelo, y de acuerdo a la ley de Walras, lo que necesitamos es hallar el precio al que la demanda total iguala la oferta total.

En condiciones de equilibrio, hablamos de precios relativos, y para simplificar el análisis acá tomaremos P1=1, o sea como numerario.

Para utilizar el programa Excel para resolver el problema, lo primero que debemos hacer es acomodar los datos de forma que nos permitan utilizar el Solver, y hacer una lectura rápida y clara. En la figura 5, podemos observar un ejemplo:

Page 96: 8 Libros Tecnologia 2010

Figura 5. Datos y fórmulas del problema de intercambio puro en una

hoja de Excel

A B C D E F1 Datos Ingresos23 alfa1 0,5 p_1 = 1 I_1 =+p_1*W_11+p_2*W_124 beta1 0,5 p_2 = 2,546875031I_2 =+p_1*W_21+p_2*W_225 W_11 1006 W_12 34 Demandas7 U_10 =+W_11^alfa1*W_12^beta1 X_11 =+(alfa1/(alfa1+beta1))*I_1/p_18 U_1 =+X_11^alfa1*X_12^beta1 X_12 =+(beta1/(alfa1+beta1))*I_1/p_291011 alfa2 0,312 beta2 0,7 X_21 =+(alfa2/(alfa2+beta2))*I_2/p_113 W_21 45 X_22 =+(beta2/(alfa2+beta2))*I_2/p_214 W_22 5015 U_20 =+W_21^alfa2*W_22^beta2 X_1T =+X_11+X_2116 U_2 =+X_21^alfa2*X_22^beta2 X_2T =+X_12+X_22171819 W_1T =+W_11+W_2120 W_2T =+W_12+W_22

Consumidor 1

Consumidor 2

Ofertas Totales

Resolucion

Cabe señalar que a los efectos de facilitar la comprensión de los cálculos se han “bautizado” las celdas con nombres apropiados. Por ejemplo la celda B3 donde figura el valor del parámetro alfa para el consumidor 1 se ha “bautizado” alfa1. Esto se implementa en el programa mediante la sucesión de comandos

INSERTAR/NOMBRE/DEFINIR

En este caso al haber escrito el nombre en la celda A3, inmediatamente a la izquierda, el programa sugiere darle a la celda B3 dicha denominación. Así, en las fórmulas que se implementan luego, la celda B3 puede invocarse alternativamente como “B3” o como “alfa1”.

Otra particularidad mostrada en la figura 5 es que en esta etapa del desarrollo del proyecto se prefiere visualizar en las celdas que contienen fórmulas, la estructura de las mismas, en vez de los resultados. Esto se logra con:

HERRAMIENTAS/OPCIONES/VER y en el menú que aparece, se tilda en OPCIONES DE VENTANA la casilla FORMULAS

Page 97: 8 Libros Tecnologia 2010

Como puede verse en la figura, hemos dispuesto los datos de los dos

consumidores en las columnas A y B. La resolución del problema de maximización se hallan en el otro extremo, representada por las funciones de demanda respondiendo a los diferentes ingresos que son el resultado de multiplicar las dotaciones por el precio del bien (columnas E y F).

Una vez preparada la planilla invocamos el Solver mediante los comandos

HERRAMIENTAS/SOLVER

Aparece entonces una ventana – menú en el que debemos plantear el problema a resolver. Este puede ser de minimización o maximización del valor de una celda de la hoja de cálculo denominada “celda objetivo”, sujeta a restricciones que deben respetarse. El resultado se consigue variando las celdas que se indiquen como variables.

En nuestro caso no tenemos un problema de maximización ni minimización, por lo cual dejaremos en blanco la celda objetivo pero si indicaremos que debe cambiarse el precio que nos falta calcular, en este caso P2, en la sección “cambiando las celdas”11. A la vez pedimos que se cumpla la condición de vaciado de mercado en la sección “sujetas a las siguientes restricciones”, es decir que debemos igualar oferta y demanda. A continuación presionamos “Resolver” y obtenemos el precio de equilibrio que estábamos buscando junto con los valores que deben tomar el resto de las variables.

11 Para poder comenzar el proceso de cálculo debe haber un valor en la celda. Se recomienda poner algún valor que se suponga que aproxima a la incógnita a resolver.

Page 98: 8 Libros Tecnologia 2010

Figura 6. Solución del problema de intercambio puro con el Solver de

Excel

A B C D E F1 Datos Ingresos23 alfa1 0,5 p_1 = 1,000 I_1 186,5944 beta1 0,5 p_2 = 2,546875 I_2 172,3445 W_11 1006 W_12 34 Demandas7 U_10 58,309519 X_11 93,2978 U_1 58,460602 X_12 36,6329

1011 alfa2 0,312 beta2 0,7 X_21 51,70313 W_21 45 X_22 47,36814 W_22 5015 U_20 48,444308 X_1T 145,00016 U_2 48,628985 X_2T 84,000171819 W_1T 14520 W_2T 84

Consumidor 1

Consumidor 2

Ofertas Totales

Resolucion

Como puede verse en la figura 6, el Solver ha encontrado una solución que cumple con las restricciones apuntadas

El valor obtenido para p2 es 2,5468 y se verifica la igualdad entre las ofertas y las demandas de cada bien.

Esta hoja de cálculo puede servir para cualquier problema de intercambio entre dos consumidores con 2 bienes. Pueden alterarse las dotaciones iniciales y los parámetros de las funciones de utilidad de los consumidores y de esa forma obtener soluciones alternativas en escenarios diversos.

De todas maneras, el equilibrio en el intercambio es un problema incompleto en el sentido de que no considera la posibilidad de incrementar los bienes a repartir por medio de la producción. Por eso en la sección siguiente abordamos el problema del intercambio con producción.

Page 99: 8 Libros Tecnologia 2010

3. INTERCAMBIO CON PRODUCCIÓN

En esta sección continuaremos el desarrollo de nuestro modelo de equilibrio general incluyendo, además de los 2 consumidores y los dos bienes la participación en la economía de dos empresas. Así, nuestros consumidores tendrán en este caso dotaciones de una índole diferente, ya que están formadas por dotaciones de capital “K” y trabajo “L”, y ya no más de bienes. Por lo tanto, ahora no buscamos más los precios de equilibrio de los bienes, sino aquellos precios de los factores (salarios “w” y retornos de capital “r”) que vacían el mercado.

Cabe destacar que los ingresos de los agentes surgen ahora de la remuneración por el uso de sus dotaciones de capital o trabajo dado los respectivos precios de estos factores por lo que tenemos que:

. .i i im r K w L= +

Nuestra condición de equilibrio será que los precios encontrados para el capital (r, la tasa de interés) y para el trabajo (w, el salario) vacíen los mercados de factores (K y L respectivamente). Igualamos entonces las demandas totales de capital y trabajo a las dotaciones iniciales de estos factores en los agentes que conforman la oferta. Aún así, al igual que en el caso anterior trabajamos con precios relativos por lo que tomamos el precio de uno de los factores (w, el salario) como numerario, es decir igual a la unidad.

Ambas firmas presentan funciones de producción tipo Cobb-Douglas, los parámetros α y β nos señalan los rendimientos a escala.

. .y A K Lδ γ=

Así, los mismos serán constantes si suman la unidad, crecientes si suman más de uno y decrecientes si suman por debajo de la unidad. Para poder trabajar debemos hacer el supuesto de que los rendimientos son o bien constantes, o bien decrecientes. Para simplificar el análisis, los supondremos constantes. Por su parte, “A” representa los requerimiento tecnológicos que, por no ser tratados particularmente en este trabajo, pueden obviarse si se busca simplificar los cálculos.

Por otro lado, en este caso supondremos que un consumidor es el capitalista (o sea posee todo el capital) y otro el obrero (o poseedor de toda la fuerza de trabajo), a la vez que una de las firmas es capital

Page 100: 8 Libros Tecnologia 2010

intensiva mientras la otra es trabajo intensiva. El problema a solucionar en este caso es la minimización de costos sujeta a la función de producción dada. Así, tenemos:

min . . sujeta a . .w L r K y A K Lδ γ+ =

Las demandas de factores en la industria se obtienen de la minimización de costos mencionada y se expresan en términos unitarios12

. 1.

.L r

lY w A

δγδ

= =

, es decir la cantidad de cada factor que se requiere para producir una unidad de producto. Realizando los cálculos correspondientes hallamos que:

. 1

..

K wk

Y r A

γδγ

= =

Bajo el supuesto de competencia perfecta (beneficio nulo), esta posibilidad de calcular los requerimientos unitarios de factores nos permite calcular los precios de los bienes simplemente calculando el costo de estos insumos unitarios (sumando las demandas unitarias de insumos multiplicadas por su precio). Además, el análisis se ve simplificado en cuanto a las condiciones de equilibrio, ya que sólo basta con equilibrar el mercado de factores. El mercado de bienes queda equilibrado por defecto, ya que cuando se calculan las demandas de factores se multiplican las demandas unitarias por la respectiva demanda a satisfacer.

A continuación proponemos una forma de acomodar los datos para facilitar la resolución mediante la utilización del Solver del Excel. Como antes es posible leer las fórmulas utilizadas en los diferentes casilleros.

12 Esto es posible debido a la homogeneidad de la función de producción o sea al supuesto de rendimientos constantes de escala

Page 101: 8 Libros Tecnologia 2010

Figura 7. El problema del intercambio con producción en Excel

A B C E F H123 Consumidores4 alfa1 2 w 1 I_1 =+w*L_1+r*K_15 beta1 3 r 2,46031746825397 I_2 =+w*L_2+r*K_26 L_1 500 7 K_1 08 alfa2 3 X_11 =+(alfa1/(alfa1+beta1))*I_1/p_19 beta2 2 X_12 =+(beta1/(alfa1+beta1))*I_1/p_210 L_2 0 L_1Du =+((1/A_1)*(r*gama1/(w*delta1))^delta1) X_1T =+I9+I1411 K_2 300 L_2Du =+((1/A_2)*(r*gama2/(w*delta2))^delta2)12 Firmas13 A_1 2 K_1Du =+((1/A_1)*(w*delta1/(r*gama1))^gama1) X_21 =+(alfa2/(alfa2+beta2))*I_2/p_114 gama1 0,5 K_2Du =+((1/A_2)*(w*delta2/(r*gama2))^gama2) X_22 =+(beta2/(alfa2+beta2))*I_2/p_215 delta1 0,5 X_2T =+I10+I1516 A_2 317 gama2 0,318 delta2 0,719 Demanda Oferta20 p_1 =+L_1Du*w+K_1Du*r =+L_1Du*X_1T+L_2Du*X_2T =+L_1+L_221 p_2 =+L_2Du*w+K_2Du*r =+K_1Du*X_1T+K_2Du*X_2T =+K_1+K_2

DOS SECTORES, DOS CONSUMIDORES, RETORNOS CONSTANTES DE ESCALA

Resolucion

Precios de los productos por condicion cero beneficio

Condiciones de equilibrioDemanda y oferta de factores

Demandas de Factorespor unidad de producto

Ingreso de los consumidores

Demanda de bienes

Dado que hemos normalizado el salario a la unidad, la celda a estimar es la correspondiente a la retribución al capital, o sea E5. A su vez le pedimos al Solver respetar las restricciones de vaciado de mercado, es decir igualar oferta y demanda (celda F20=H20 y F21=H21), además de agregar la restricción de que el precio buscado debe ser no negativo.

Page 102: 8 Libros Tecnologia 2010

Figura 8. Resolución del problema de intercambio con producción

A B C E F H I123 Consumidores Resolucion Ingreso de los consumidores4 alfa1 2 w 1,0000 I_1 500,0005 beta1 3 r 2,4603 I_2 738,0956 L_1 500 7 K_1 0 Demandas de Factores Demanda de bienes8 alfa2 3 por unidad de producto X_11 127,5079 beta2 2 X_12 260,168

10 L_2 0 L_1Du 0,784 X_1T 409,84411 K_2 300 L_2Du 0,34612 Firmas13 A_1 2 K_1Du 0,319 X_21 282,33714 gama1 0,5 K_2Du 0,328 X_22 256,03815 delta1 0,5 X_2T 516,20616 A_2 317 gama2 0,3 Precios de los productos Condiciones de equilibrio18 delta2 0,7 por condicion cero beneficio Demanda y oferta de factores19 D O20 p_1 1,57 500,00 500,0021 p_2 1,15 299,9999996 300,000

DOS SECTORES, DOS CONSUMIDORES, RETORNOS CONSTANTES DE ESCALA

Así, le damos clic en Resolver y al igual que en el caso anterior obtenemos el precio que estábamos buscando junto con el valor correspondiente a las demás variables del modelo. En este caso resulta ser r = 2,460

4. ANÁLISIS DE POLÍTICAS IMPOSITIVAS EN UNA ECONOMÍA CON PRODUCCIÓN

A los resultados hasta aquí obtenidos deseamos agregarle nuevas variables que permitan el manejo de la política impositiva. Esto significa, que debemos recalcular las fórmulas incluyendo dichas nuevas variables. Ellas son:

• t 1 que representa el impuesto al consumo del bien 1

• t 2 que representa el impuesto al consumo del bien 2

• t K que representa el impuesto al capital

• t L que representa el impuesto al trabajo

• t que representa el impuesto a la producción total

• t K 1 que representa el impuesto al consumo del factor capital por la firma 1 (capital intensiva)

Page 103: 8 Libros Tecnologia 2010

• t K 2 que representa el impuesto al consumo del factor capital por

la firma 2 (trabajo intensiva)

Además, supondremos que todo lo recaudado por el gobierno es distribuido entre las familias, dicha recaudación total por impuestos la representamos con la variable T y su distribución depende del parámetro θ.

Éste parámetro de distribución puede tomar valores entre 0 y 1, siendo θ=0 una distribución que favorece totalmente a los capitalistas (entendida como regresiva) y θ=1 la que favorece totalmente a los trabajadores (entendida como progresiva).

( ) ( ). . 1 . . 1 .L k Lm K r t L w t Tθ= − − +

Las fórmulas para esta sección se explicitan a continuación:

Los cálculos son exactamente los mismos que antes, sólo que ahora tenemos en consideración las nuevas variables. El ingreso neto de los capitalistas viene dado por:

( ) ( ) ( ). . 1 . . 1 1 .k k Lm K r t L w t Tθ= − − + −

El ingreso neto de los obreros es: ( ) ( ). . 1 . . 1 .L k Lm K r t L w t Tθ= − − +

Las familias ahora maximizan la utilidad (cuya función no cambia) sujeta a la nueva restricción de ingresos iguales a los gastos que viene dada por :

( ) ( )1 1 1 2 2 2. . 1 . . 1 iX P t X P t m+ + + = con i = L,K

Como resultado de la optimización, obtenemos las siguientes funciones de demanda de bienes:

( )11 11 .

ii m

Xt P

α.=

+

( )22 21 .

ii m

Xt Pβ.

=+

Por el lado de las firmas, tenemos la minimización de costos de la cual obtenemos las demandas de factores. Así a partir de

( )1min . 1 . . s.a. Y=A.K .kr t K w L Lδ γ+ +

Obtenemos:

Page 104: 8 Libros Tecnologia 2010

( ). 1 .1

..

k jj

r tLl

Y A w

δγ

δ

+= =

( )

1 ..

. 1 .jk j

K wk

Y A r t

γδ

γ= =

+

donde j = 1,2

Dada la condición de beneficio cero por el supuesto de competencia perfecta tenemos que los precios son:

( )( )

. . 1 .

1j k j j

j

k r t l wP

t

+ +=

Finalmente, la recaudación del gobierno por el lado del consumo viene dada por:

( )1,2 ,

. . . . . .c j j j k i l ij i L K

T t X P t K r t L w= =

= + +∑ ∑

Mientras que la recaudación del gobierno por el lado de la producción es:

( )1,2

. . . .p j j kj j jj

T t P X t k X=

= +∑

4.1 Un modelo para el análisis de política impositiva para una economía

Con todas estas fórmulas cargadas en un archivo de Excel se ha confeccionado una aplicación que permite la evaluación de políticas impositivas y redistributivas en una economía con producción.

Como antes, habrá dos familias representativas (familia pobre y familia rica ó alternativamente trabajadores y capitalistas) con diferentes dotaciones y funciones de utilidad. También podrán diferir sus preferencias respecto de los dos bienes producidos y consumidos en esta economía (bien industrial y bien artesanal).

Por otra parte se considerará la existencia de dos firmas, cada una produciendo uno de los bienes. Estas firmas tienen tecnología de rendimientos constantes a escala y ganancia cero (mercado competitivo), es decir que sus ingresos lo dedican a la remuneración de los factores trabajo y capital, poseídos por las familias de la economía.

Page 105: 8 Libros Tecnologia 2010

Finalmente el gobierno implementará una política impositiva a elección

y el monto recaudado lo distribuirá entre las familias (esta redistribución simula la provisión de bienes públicos por parte del gobierno) de acuerdo con un patrón dado por un parámetro redistributivo.

Dada la mayor cantidad de datos y la complejidad de las fórmulas, se diseñaron tres pantallas. En la primera se fijan los parámetros del modelo. En la pantalla que se muestra mas abajo (denominada PARAMETROS) vemos los parámetros cargados para un ejemplo de funcionamiento.

Pantalla PARAMETROS del programa definitivo

Las columnas CASO 1 y CASO 2 tienen el sentido de permitir evaluar en dos casos alternativos las consecuencias de algún cambio en los parámetros. En nuestro ejemplo los mantenemos iguales porque lo que queremos evaluar es un cambio en los impuestos.

Las comparaciones entre diferentes políticas desde la óptica del bienestar se hacen en base a las variaciones compensatoria y equivalente que se presentan en la pantalla VARIABLES Y RESULTADOS en la sección “Análisis del bienestar”. Al cargar diferentes parámetros en ambas

Page 106: 8 Libros Tecnologia 2010

situaciones, podremos contar con datos suficientes para realizar tal cálculo.

Las fórmulas de las variaciones se presentan a continuación, donde “a” significa “antes” o sea la situación 1 y “d” significa “después”, o sea la situación 2.

.d aa

a

U UVE m

U−

= .d ad

d

U UVC m

U−

=

Una vez fijados los valores deseados a todos los parámetros hacemos clic en el botón DISPLAY y eso nos lleva a la mencionada pantalla VARIABLES Y RESULTADOS, en la cual tenemos la opción de fijar los impuestos y luego resolver el caso con el botón RESOLVER. Dicho botón activo nos lleva a las pantallas de resolución CASO 1 y CASO 2 en los cuales se resuelve apelando al SOLVER del programa.

Pantalla VARIABLES Y RESULTADOS del programa definitivo

Es importante aclarar que no debe modificarse nada en estas hojas de cálculo CASO 1 y CASO 2, ya que debido a la necesidad de utilizar el Solver la misma no puede protegerse. Una vez resuelto el caso, apretamos la celda que dice “regresar a Display”, y ahí podemos analizar los

Page 107: 8 Libros Tecnologia 2010

resultados. A continuación se presenta una imagen de la página de resolución con las fórmulas.

Pantalla CASO 2 del programa definitivo

En la hoja de resolución, una vez ejecutado el SOLVER, el cual ya se encuentra predeterminado, se presiona el botón VOLVER, lo que nos lleva de vuelta a la pantalla VARIABLES Y RESULTADOS, donde aparecen los resultados buscados.

Como puede apreciarse en dicha pantalla, en el ejemplo considerado, en el que se ha aplicado un impuesto del 20% sobre la dotación de capital (poseído por la familia rica), el bienestar de las familias pobres ha aumentado, mientras que ha disminuido el bienestar de las familias ricas, a pesar de que el parámetro de redistribución se había fijado en el 50%, es decir sin favorecer ni perjudicar a ningún sector. Por otra parte el bienestar general entendido como la suma de las variaciones del bienestar de ambas familias, no ha variado, ya que el impuesto sobre el capital es no distorsivo. Por lo tanto se ha producido una redistribución eficiente del ingreso.

Page 108: 8 Libros Tecnologia 2010

4.2 Propuestas de extensión en el aula

Este modelo se ha desarrollado con un objetivo pedagógico y por lo tanto queremos agregar algunas sugerencias para su utilización en el aula. Específicamente proponemos tres alternativas:

• Utilización del modelo en su forma actual para el análisis de políticas

• Modificación del modelo para el análisis de casos no contemplados

• Reemplazo de las funciones de utilidad y producción Cobb-Douglas por funciones más elaboradas (por ejemplo funciones CES)

El primer caso está de alguna manera contemplado en la ejemplificación del parágrafo anterior. La superioridad en términos de bienestar del gasto pro pobre, la menor pérdida de eficiencia de los impuestos sobre los ingresos respecto de los impuestos sobre los factores, etc. Se trata del uso menos exigente en cuanto a trabajo de los alumnos.

El segundo caso se refiere a evaluaciones de política para las cuales el modelo no está específicamente diseñado pero que, con pequeños cambios, podría enfocar. Un ejemplo es el caso de evaluar, para un determinado monto de impuestos que no serán redistribuidos, cuál es la forma más eficiente (en el sentido del bienestar) de recaudar. Si los alumnos han comprendido la lógica de construcción del modelo seguramente serán capaces de realizar los cambios necesarios.

El tercer caso se refiere a reemplazar las simples fórmulas de Cobb-Douglas utilizadas en las funciones de producción y utilidad del modelo por las más flexibles funciones CES (funciones de elasticidad de sustitución constante), que son una generalización de las anteriores y que son las que generalmente se utilizan en los modelos más elaborados. En la actualidad incluso se han comenzado a usar funciones LES (sistema lineal de gasto ó Stone-Geary) para modelizar la utilidad de los consumidores debido a su característica de no homoteticidad, que se verifica en los datos del consumo, tal como prevé la ley de Engel.

En el apéndice indicamos los desarrollos necesarios para llegar a las fórmulas pertinentes en el caso de las funciones CES.

Page 109: 8 Libros Tecnologia 2010

5. CONCLUSIONES

En esta ponencia hemos mostrado cómo una herramienta sencilla y extensamente difundida como la planilla de cálculo Excel puede utilizarse para instrumentar modelos que hasta no hace mucho eran exclusivos de los equipos de analistas económicos del gobierno o de las instituciones especializadas.

Entendemos que el acceso a esta tecnología será de suma utilidad pedagógica para los profesores a la hora de abordar en el aula el tema del equilibrio general walrasiano y seguramente les dará a los futuros economistas una herramienta sencilla de análisis que les permitirá abordar la solución de modelos sencillos.

REFERENCIAS BIBLIOGRÁFICAS

Devarajan, S.; Go, D. S.; Lewis, J. D.; Robinson, S. and Sinko, P. (1997): “Simple General Equilibrium Modeling” en Francois, J. F. and Reinert, K. A. (eds.). Applied Methods for Trade Policy Analysis: A Handbook. Cambridge University Press.

Johansen, L. (1960): A multi-sectoral study of economic growth, North Holland, Amsterdam

Mantel R. (1978): "Un algoritmo acelerado para la determinación de una solución de equilibrio económico", Serie de Estudios Técnicos, No.33, Centro de Estudios Monetarios y Bancarios, Banco Central de la República Argentina; Junio.

Mantel, R. (1966): “Towards a Constructive Proof of the Existence of Equilibrium in a Competitive Economy", Tesis doctoral, Yale Economic Essays.

Peng, A. (2007): “Introducing CGE Models to the Classroom Using Excel”, Working Paper, Ryerson University, Faculty of Arts - Department of Economics.

Scarf, H. (1967): "On the Computation of Equilibrium Prices," en Ten economic studies in the tradition of Irving Fisher. Ed.: W. J. FELLNER, Wiley, Nueva York.

Varian, Hal (1999): Microeconomía Intermedia, Quinta Edición, Antoni Bosch Editor, Barcelona.

Page 110: 8 Libros Tecnologia 2010
Page 111: 8 Libros Tecnologia 2010

LA PROFESIONALIZACIÓN DOCENTE Y LAS TICS COMO MEDIO EN LA TRIANGULARIDAD DIDÁCTICA

Juan R. Garnica Hervás Aída B. Castegnaro de Pasarin

INTRODUCCIÓN

El docente actual enfrenta nuevos desafíos que lo lleva a ocupar mayores espacios de intervención. Sabemos que, como mediador entre el conocimiento y sus alumnos, interviene el lenguaje orientado a comunicar, intercambiar y construir un determinado significado.

Actualmente, este lenguaje, va más allá del compartido en una dinámica de la clase y del soporte físico de los contenidos, ya que tanto los contenidos de enseñanza como los aprendizajes construidos asistidos por la tecnología de información y de la comunicación, comúnmente denominada TICs, han trascendido del simple discurso oral y escrito.

Aprovechando la cultura digital que persiguen nuestros alumnos, las TICs resultan un fuerte recurso si son concebidas como un medio para lograr los aprendizajes y no un fin en si mismas, pues hacen posible no solamente la educación a distancia, sino también la presencial como complemento.

El presente trabajo es un recorrido de los recursos que actualmente contamos los docentes y que nos exigen comprender aún más la realidad educativa, reconociendo la necesidad de un cambio didáctico y pedagógico a la altura de los tiempos actuales, desterrar modelos mentales, indagar acerca de la praxis docente e intervenir activamente en el desarrollo del Currículum, en donde la profesionalización en tal aspecto, es un proceso necesario por el cual todo docente debe transitar y que nuestra Casa de Estudios genera las competencias a través de la Carrera de Especialización en Docencia Universitaria en Ciencias Económicas.

Como punto de partida compartiremos una reflexión recibida con motivo del cierre de un curso y se refiere al pensamiento de un teórico de la educación, Dewey, quien sostiene que el problema típico del educador es pensar “esto es lo que quiero enseñarle al estudiante, ¿cómo se lo hago interesante?”. Cuando en realidad, este educador debería replantear la pregunta en este sentido: “¿Qué le interesa al alumno y cómo uso yo eso para enseñarle lo que creo que necesita saber?”.

Page 112: 8 Libros Tecnologia 2010

Nuestra población estudiantil, podríamos decir, encuentra cierta fascinación ante el ordenador, pasan sentados horas, en la mayoría de los casos con fines ajenos a los educativos. No obstante, este recurso ya instalado en cualquier hogar como artículo básico al igual que un TV o un Celular, de hecho constituye una forma, para ellos amigable, para combinar citas o compartir videos, música, fotos, mail, msn, entre otros.

Algunos investigadores sostienen que “las nuevas generaciones socializadas en el uso de las pantallas, viven la tecnología actual con naturalidad...”1

Siendo así, nos obliga a repensar no solamente la forma de presentar los contenidos de los paquetes instruccionales sino hasta su formato, cuyos destinatarios son nuestra Generación I (Internet y de Informática), cuyas características nos permiten aprovechar este fuerte recurso concibiéndolo como un medio para lograr aprendizajes y lograr en ellos tanto la alfabetización académica como la digital.

y ello resulta ser el vehículo para que logren aprendizajes significativos, además de fomentar actitudes de trabajo colaborativo, constituyendo una herramienta de estimulación para el proceso educativo.

1. UN PEQUEÑO VIAJE POR EL TIEMPO

A través de una visión retrospectiva de nuestra práctica educativa en esta Casa de Estudios, podemos remontarnos al año 1999 cuando el Departamento de Matemática a cargo de la Dra. María Teresa Casparri, fue pionero en nuestra Facultad, incorporó las TICs a la educación con la modalidad a distancia en dos asignaturas –Álgebra y Cálculo Financiero-, pertenecientes al Ciclo Básico y al Ciclo Profesional, respectivamente.

Así, nació una modalidad de cursado alternativa a la presencial. En el caso de Cálculo Financiero, se la denominó “Cálculo Financiero con aplicación de nuevas tecnologías”. Actualmente, las materias ofertadas a distancia son casi la totalidad del plan de estudios.

Recordemos la entrada a la plataforma a través del sitio “http://www.interecon.econ.uba.ar”

1 BALARDINI, Sergio (2004)”...Subjetividades juveniles y tecnocultura” Revista Estudio sobre la juventud. Ed. 8, N° 20, México.

Page 113: 8 Libros Tecnologia 2010

Los protagonistas –tanto profesor como alumno- contamos con un “entorno virtual” definido como el soporte tecnológico que hace posible la existencia de la interacción virtual por medios telemáticos. A través de este entorno virtual se forma un “contexto virtual” definido como las características en la actividad educativa que enmarcan las condiciones en donde se lleva a cabo las acciones de enseñanza y de aprendizaje virtual2

Actualmente, se ingresa a

http://economicas.educativa.com o bien http://distancia.econ.uba.ar.La nueva plataforma, resulta contener otras herramientas tales como el chat a diferencia de la anterior.

2. OBJETIVOS DE LA PLATAFORMA VIRTUAL

Permiten ser utilizadas no solamente como formación y refuerzo para el logro del aprendizaje académico de los contenidos de materias curriculares sino también para la adquisición y desarrollo de competencias específicas en la tecnología sitial e información. 3

Pasaremos a nombrar las características de estos entornos de aprendizaje.

Tabla 1.

Características de una plataforma virtual Flexibilidad - de espacios - de tiempos - de ritmos

Para el docente: pues permite modificaciones on-line y en todo momento Para el alumno: pues éste es el que fija ritmo, lugar y momento de estudiio, respetando el cronograma del curso en sus aspectos sustantivos.(fechas de parciales, inicio y fin de cursada)

Interactividad - Sincrónica

Promueve los intercambios en forma de diálogo mediados por la computadora y las

2 MOREIRA, Manuel Area –(2007) “Algunos principios para el desarrollo de buenas prácticas pedagógicas con las TICs en el aula – Comunicación y Pedagogía: Nuevas tecnologías y recursos didácticos – Nº 222. 3 MOREIRA, Manuel Area –(2007) “Algunos principios para el desarrollo de buenas prácticas pedagógicas con las TICs en el aula – Comunicación y Pedagogía: Nuevas tecnologías y recursos didácticos – Nº 222,

Page 114: 8 Libros Tecnologia 2010

- Asincrónica telecomunicaciones. El diálogo es factible por la mediación tecnológica y puede ser: - asincrónico (mail, Internet) y se da a través de los materiales diseñados para que el alumno aprenda e interactúe. - sincrónico (chat, videoconferencia), entre alumnos o entre el profesor y alumno/s. Ambas formas de diálogo dan lugar al aprendizaje guiado.

Actualización Permite una formación permanente e

interdisciplinaria Inmediatez La información está disponible a un click de

distancia y lo puede conducir a la Macro información diversa y dinámica Con multiformatos que lo lleva a la combinación de materiales, soportes y formatos

Seguimiento personalizado

El alumno se sentirá acompañado en su proceso reflexivo. Exige un aprendizaje activo. Promueve un aprendizaje colaborativo por estudiar con otros y de otros. El docente puede realizar una evaluación formativa o continua, además de la sumativa.

El tutor es el que crea, administra y gestiona los contenidos en una secuencia didáctica y pedagógica con objetivos específicos para cada uno de ellos; de allí las multitareas a las que se halla comprometido. Pero lo importante es que este tipo de modalidad exige nuevas formas de trabajo por parte del docente.

Fomenta el aprendizaje colaborativo y crea habilidades, si desarrollamos juntos con nuestros estudiantes un curriculum acorde. Ello no significa que se genere dicho aprendizaje, pues nos estamos refiriendo a un tipo organicista, donde el todo es mayor a la suma de las partes, involucra un valor agregado que resulta de los intercambios interpersonales y para que se de es necesario el compromiso de los que

Page 115: 8 Libros Tecnologia 2010

conforman el grupo y de la motivación y fundamentalmente la forma en que organicemos las actividades.4

2.1 Nuestros destinatarios: los alumnos

Este tipo de modalidad permite el acceso para aquellos estudiantes que se encuentran alejados geográficamente, en forma temporal por razones laborales u otras; también a aquellos que por falta de tiempo tienen imposibilidad en el cursado presencial.

También sirve para aquellos cuya materia les resultaría difícil de gestionar para promocionarla en forma libre y constituye un apoyo para adelantar la carrera o compensar alguna asignatura no promocionada.

Pensemos también en otros destinatarios, nuestros alumnos de modalidad presencial a quienes le podemos ofrecer la plataforma como complemento a los V.H. curriculares.

Requerimientos necesarios para la cursada - Computadora con acceso a Internet - Cuenta de correo electrónico - Conocimientos en el manejo de la computadora, de la Web 2.0 y

de utilización de aplicaciones de programas tales como procesador de textos y planilla de cálculo.

La necesidad de plataforma en los cursos presenciales Si pretendemos que nuestros alumnos logren saberes más allá de los

propios de la asignatura, es necesario crearles competencias específicas en la tecnología digital e información.

La presencia de entornos virtuales como complemento a los cursos presenciales posibilita la alfabetización digital y no sólo cubre contenidos en el área informacional sino también en lo atinente a la interacción social, y como monitoreo del nivel del curso, sus progresos. Les permite realizar trabajos colaborativos organizando sus tiempos, sin necesidad de reunirse físicamente combinando espacio y horario.

Estas plataformas tecnológicas se las conoce con las siglas LMS (Learning Management System), y representan un aula virtual en donde el 4 MARABOTTO, María Irma y GRAU, J. (1995): “Multimedios y educación” . Fundec. Buenos Aires.

Page 116: 8 Libros Tecnologia 2010

alumno debe cumplir el rol activo para la generación de conocimientos profesor participando en ese ambiente educativo virtual”

Existen distintos sitios que albergan las denominadas aulas virtuales, algunas menos complejas que otras:

-http://websyllabus.org

-http://www.moodle.org

El formato de estos sitios es algo similar al que se presenta seguidamente:

Hasta aquí hemos presentado los diferentes recursos que nos permite la Web 2.0 relacionados con la creación de comunidades virtuales o redes sociales y de gestión de contenidos: blogs, wikis, entre otros, que nos ayudan en los cursos presenciales y en los cursos a distancia.

Tabla 2.

Recursos \ Presencial

Distancia

Endógenos a la Institución http://www.econ.uba.ar x http://distancia.econ.uba.ar x Exógenos a la Institución -http://websyllabus.org X -htp://www.moodle.org X -http://…blogspot.com X -ar.yahoo.com X -simuladores X -materiales didácticos con

soporte informático X

Page 117: 8 Libros Tecnologia 2010

3. CONTENIDOS BÁSICOS DE ESTAS AULAS VIRTUALES

Para que nuestros alumnos le puedan atribuir significados a los contenidos el paquete instruccional debe ser potencialmente significativo y parecería más necesario que antes en la habilidad que le pongamos al diseño para permitir la motivación.

Para ello, se deben cumplir dos condiciones y es que debe ser preparado con cierta “Significatividad lógica y psicológica”, es decir con coherencia en su estructura. Ello aunado con una actitud favorable del alumno para aprender, es decir con su intencionalidad se logrará el objetivo.

La motivación del alumno ante actividades específicas planificadas dependerá de cómo se presente la tarea y en definitiva de la compleja dinámica de intercambios comunicativos entre profesor-tutor y sus alumnos-tutelados.

Page 118: 8 Libros Tecnologia 2010
Page 119: 8 Libros Tecnologia 2010

3.1 Tipos de tecnologías utilizadas

En la plataforma se dan concomitantemente distintas tecnologías

a) transmisivas, sólo pueden lograr una motivación en el alumno acercándole los contenidos en donde éste participa como sujeto pasivo, ya que toda la actividad está centrada en el profesor, quien ejerce la función de transmisor o emisor de manera habitual.

b) interactivas, cuando el propio alumno controla la navegación de los contenidos formativos, ejerciendo un rol activo que le permitirá reforzar los conceptos, con una formación bastante conductivista.

c) colaborativas, si los estudiantes a través de determinadas actividades aprenden en forma individual y colectivamente, pues lo hacen con otro a través de un feedback de conceptos y materiales. Es un modelo constructivista.

Page 120: 8 Libros Tecnologia 2010

La convivencia de distintas formas de presentar los materiales ayuda a que cada alumno encuentre sus fortalezas según sus propios estilos de aprendizaje que lo conduce a utilizar distintas estrategias de aprendizaje. Al respecto, podemos diferenciar los siguientes estilos que los hace enfrentar con mayor motivación a una u otra forma de actividades propuestas.

Según el perfil de cada estudiante, sea activo o reflexivo lo conducirá a aceptar en mayor medida determinados contenidos didácticos, en el sentido de que un alumno más teórico y reflexivo se comportará como un asimilador de contenidos más que un participativo en los trabajos colaborativos que se propongan. Por eso, la variedad de los contenidos será tal que abarque a la totalidad del grupo, en sus distintos perfiles, sin dejar de motivarlos a comprometerse a participar en todas las actividades como integrante de un espacio social.

Page 121: 8 Libros Tecnologia 2010

3.2 Materiales didácticos

El desafío constituye la selección y preparación de actividades que conduzcan según sus propios estilos de aprendizaje a utilizar distintas estrategias de aprendizaje. Los profesores contamos con formación al respecto para la comprensión de toda la problemática de la enseñanza y del aprendizaje universitario y son varias las asignaturas que comprenden la Carrera de Especialización en Docencia Universitaria que se dicta en nuestra Casa de Estudios.

CONCLUSIONES

Nuestro rol como guía para promover el estudio independiente de los estudiantes a través de decisiones didácticas planteadas en la web y que estén bien orientadas a los objetivos que se pretende de cada contenido, exige una buena selección y organización de las propuestas para que cada alumno utilice estos medios: las T.I.C.(Tecnologías de la Información y de la Comunicación) y pueda construir aprendizajes lo más significativos posibles y que estos contenidos no sean sólo de refuerzo sino también

Page 122: 8 Libros Tecnologia 2010

formativos. Además, debemos crear un clima tal, que motive a aquellos que presentan incomodidades en la participación colectiva.

Para evaluar la calidad de toda propuesta 5

- la interacción entre materiales y alumnos-profesor/tutor

, debemos considerar la dinámica de las principales formas en que se produce la interacción en el entorno virtual en lo relacionado a:

- la interacción entre alumnos y profesor/tutor

- la interacción entre los propios alumnos

reconociendo las diferentes actitudes frente al paquete instruccional y contemplando todas las gamas posibles para la presentación de los contenidos. Debemos lograr la alfabetización tanto académica como digital.

Hacemos propia la siguiente reflexión6

Este es el inicio y los que estamos en esta tarea de enseñar nos hace sentir atrapados en una indagación que no tiene fin.

REFERENCIAS BIBLIOGRÁFICAS

Balardini, S. (2004): “Subjetividades juveniles y tecnocultura” Revista Estudio sobre la juventud. Ed. 8 , N° 20, México.

Barberá, E. (Coord.) (2001): La incógnita de la Educación a Distancia ICE-HORSORI. Barcelona.

César Coll, S. (1990): Aprendizaje escolar y construcción del conocimiento. Paidós. Buenos Aires.

García Aretio, L. –CUED-UNED – www.uned.es/cued “¿Dónde están las bases para las buenas práctica en educación a distancia?”

Marabotto, M. I. y GRAU, J. (1995): Multimedios y educación. Fundec. Buenos Aires.

Joice, B. Y Weil, M. (2002): “Modelos de enseñanza”. Barcelona, Gedisa.

5 BARBERÁ, Elena (Coord.) (2001): “La incógnita de la Educación a Distancia” ICE-HORSORI. Barcelona. 6 JOICE, B. Y WEIL,M (2002):”Modelos de enseñanza” . Barcelona, Gedisa.

Page 123: 8 Libros Tecnologia 2010

Moreira, M. A. (2007): “Algunos principios para el desarrollo de buenas prácticas pedagógicas con las TICs en el aula” en Comunicación y Pedagogía: Nuevas tecnologías y recursos didácticos – Nº 222

Prensky, M. (2009): H. Sapiens Digital: desde los inmigrantes y nativos digitales hasta la sabiduría digital.

Tiscar, L. (2009): “El Papel de la Univerisdad en la construcción de su identidad digital” Revista de Universidad y Sociedad del Conocimiento.

Stigliano, D. y Gentile, D. (2006): Enseñar y aprender en grupos cooperativos. Ediciones Novedades Educativas

Valdes Montalvo, M. N. Reto de las NTI y las Comunicaciones al Diseño Curricular y la práctica docente actual.

Zañartu Correa, L. “Aprendizaje colaborativo: una nueva forma de Diálogo Interpersonal y en Red”.

http://dialnet.unirioja.es/servlet/articulo?codigo=1303698 cita a Autores: Olga Buzón García Localización: RELATEC: Revista Latinoamericana de Tecnología Educativa, ISSN 1695-288X, Vol. 4, Nº. 1, 2005 , pags. 77-100.

Page 124: 8 Libros Tecnologia 2010
Page 125: 8 Libros Tecnologia 2010

EL MODELO DE AJUSTE LINEAL MÚLTIPLE PRESENTADO DESDE EL PROGRAMA EXCEL

Liliana Beatriz Ghersi

INTRODUCCIÓN

A partir de la experiencia recogida en la actividad áulica, he comprobado que aún los alumnos no han incorporado a la planilla de cálculo como una herramienta al servicio de la comprensión de los conceptos teóricos que el docente presenta en la clase. También he podido comprobar, a partir de mi larga experiencia áulica, que la integración de conceptos es un tema pendiente. ¿Cómo lograr que el alumno integre el pensamiento analítico, con el algebraico y con el estadístico? Esta puede ser una vía, y no la única.

Es indudable que disponer de este recurso permite:

Modificar la relación docente alumno en situación áulica.

Modificar la relación entre alumnos en situación áulica.

Presentar las gráficas de una manera sencilla y precisa, sin descuidar la dimensión estética.

Reducir el trabajo del docente sobre el pizarrón.

Incursionar, desde el alumno, en el estudio de los modelos de acuerdo a sus propios intereses.

Revelar las relaciones ocultas que hay entre las variables.

Acercar la realidad multidimensional al momento del estudio teórico de los ajustes.

Autoevaluar, la capacidad de compresión de los efectos que se producen cuando se analizan.

Incursionar numéricamente, cómo se modifica el modelo a partir de una pequeña modificación introducida en los datos.

Incursionar en la diferencia de perturbaciones al modelo que se generan cuando las modificaciones son cercanas a la situación media y cuando se apartan fuertemente de ella.

Y, para terminar, la posibilidad de que el alumno pueda obtener por medio de las funciones que ofrece el menú de Excel resultados requeridos

Page 126: 8 Libros Tecnologia 2010

para la obtención del modelo y que tienen que ver con procesos algebraicos y/o analíticos enriquecerá la visión holística del tema a desarrollar.

1. ELEMENTOS NECESARIOS

Computadoras para docente y los alumnos con Excel

2. DESARROLLO DEL TALLER

Contaré para el desarrollo del taller, con la ayuda de los siguientes alumnos: Rodrigo González; Carolina Marín; Araceli Rocío Rocha; Carolina Rodríguez Delfina; Laura Sassi Pardo y Pablo Vigil.

Se presenta a continuación una tabla de posiciones de un campeonato de fútbol, en donde el objetivo es analizar si existe asociación lineal entre los partidos ganados, los goles a favor y también los goles en contra con los puntos obtenidos en el torneo.

Tabla 1. Posiciones

Explicada(y) Explican (x1) Explican (x2) Explican(x3)

Puntos Ganados A Favor En contra 15 4 7 3

14 4 8 6

12 3 9 6 12 3 15 9

10 3 11 7

10 3 8 4

10 3 11 8 9 2 8 9 8 2 8 6

8 2 11 11 8 2 13 13 8 1 6 7 7 2 2 4

Continúa en la página siguiente

Page 127: 8 Libros Tecnologia 2010

7 2 8 9 7 2 12 16 7 2 8 16 6 1 5 6 4 0 4 9 3 0 2 8

El modelo a obtener es: 321 dxcxbxay +++=∧

Para obtener la cantidad de cuaternas observadas, se utilizará la función

que ofrece el Excel CONTAR (RANGO), de donde surgirá que n es 19; para

obtener las sumas de los valores de las distintas variables, como las sumas

de cuadrados y las sumas de productos se utilizarán las funciones de la

planilla de cálculo: SUMA (RANGO), SUMA CUADRADOS (RANGO) y SUMA

PRODUCTO (RANGO;RANGO). Considero desde ya una ventaja el usar

funciones, pues exige que el alumno analice la sintaxis de la función a

partir del lenguaje coloquial y desde el objetivo de la misma.

A continuación se presentan los resultados:

Tabla 2. Resultados

Explicada(y) Explican (x1) Explican (x2) Explican(x3)

Suma Puntos Suma Ganados Suma A Favor Suma En contra

165 41 156 157 n = 19

Suma Cuadrados X1 Suma Cuadrados X2 SumaCuadrados X3

111 1500 1537

Continúa en la página siguiente

Page 128: 8 Libros Tecnologia 2010

Suma Productos Y X1 Suma Productos Y X2 Suma Productos Y X3

414 1443 1287

Suma ProductosX1 X2 SumaProductos X1 X3 Suma Productos X2 X3

373 319 1389

Para obtener los coeficientes del modelo es necesario obtener los determinantes de las matrices, acción que se basará en la función MDETERM (RANGO MATRIZ); teniendo entonces lo siguiente:

Matriz Y

165

414

1443

1287

Matriz del Sistema

19 41 156 157

41 111 373 319

156 373 1500 1389

157 319 1389 1537

Determinante de matriz del sistema:

7819194

Matriz para a

165 41 156 157

414 111 373 319

1443 373 1500 1389

1287 319 1389 1537

Determinante para a: 34834608

a= 4,4550

Page 129: 8 Libros Tecnologia 2010

Matriz para b

19 165 156 157

41 414 373 319

156 1443 1500 1389

157 1287 1389 1537

Determinante para b: 17325153

b = 2,2157

Matriz para c

19 41 165 157

41 111 414 319

156 373 1443 1389

157 319 1287 1537

Determinante para c: 936810

c= 0,1198

Matriz para d:

19 41 156 165

41 111 373 414

156 373 1500 1443

157 319 1389 1287

Determinante para d: -1453275

d= -0,1858

Y como era de esperar, al estar la variable goles en contra asociada en forma inversa a la posición del equipo en la tabla, el coeficiente asociado a dicha variable debería resultar negativo.

Concluyendo que el modelo lineal, que minimiza la suma de los cuadrados de las diferencias entre los valores observados ajustados es:

1 2 34, 45 2, 21 0,1198 0,1858y x x x∧

= + + −

Page 130: 8 Libros Tecnologia 2010

Obteniéndose los siguientes valores promedios condicionados por las variables que explican, o sea los valores ajustados:

Tabla 3. Valores ajustados

13,5989803

13,1612095

11,0652974

11,2265717

11,1190555

11,3172083

10,9331955

8,17218744

8,72976729

8,15989461

8,02779276

6,08856821

8,38263304

8,17218744

7,35040389

6,8711678

6,15461913

3,26150918

3,20775108

165

Donde se puede constatar, que la suma de los valores observados coincide con las suma de los valores promedios que surgen del modelo obtenido.

Page 131: 8 Libros Tecnologia 2010

Para obtener el desvío de la estimación, se deben obtener los desvíos cuadráticos entre los valores observados y los valores ajustados, y luego promediar dichos desvíos. A continuación se muestran los valores citados:

Tabla 4. Valores Citados

Desvíos entre Observados y

Ajustados Desvíos

Cuadráticos 1,40101972 1,96285626

0,83879055 0,70356958

0,9347026 0,87366896

0,77342831 0,59819135

-1,11905549 1,2522852

-1,31720827 1,73503763

-0,93319554 0,87085392

0,82781256 0,68527363

-0,72976729 0,53256029

-0,15989461 0,02556629

-0,02779276 0,00077244

1,91143179 3,6535715

-1,38263304 1,91167413

-1,17218744 1,3740234

-0,35040389 0,12278289

0,1288322 0,01659774

-0,15461913 0,02390708

0,73849082 0,54536869

-0,20775108 0,04316051

Suma 16,931721

se= 1,0624

Page 132: 8 Libros Tecnologia 2010

Para obtener el coeficiente de determinación o bien el coeficiente de determinación ajustado o corregido, se deben calcular los desvíos cuadráticos entre los valores observados y el valor promedio. A continuación se muestran los valores citados:

Tabla 5. Valores Citados Desvíos Respecto del

Promedio Desvíos

Cuadráticos

6,315789474 39,88919668

5,315789474 28,25761773

3,315789474 10,99445983

3,315789474 10,99445983

1,315789474 1,731301939

1,315789474 1,731301939

1,315789474 1,731301939

0,315789474 0,099722992

-0,684210526 0,468144044

-0,684210526 0,468144044

-0,684210526 0,468144044

-0,684210526 0,468144044

-1,684210526 2,836565097

-1,684210526 2,836565097

-1,684210526 2,836565097

-1,684210526 2,836565097

-2,684210526 7,20498615

-4,684210526 21,94182825

-5,684210526 32,31024931

Suma: 170,1052632 De donde:

8875,0

9004,02

2

=

=−

R

R

Page 133: 8 Libros Tecnologia 2010

Para obtener el coeficiente de correlación muestral múltiple, lo que debemos obtener es el coeficiente de correlación muestral entre la variable explicada y la predictora; por lo tanto:

Valores Promedio Valores Desvios cuadráticos Res. M(y) Ajustados Explicada Ajustados Observados

13,59898028 15 4,914769752 6,315789474

13,16120945 14 4,476998928 5,315789474

11,0652974 12 2,381086869 3,315789474

11,22657169 12 2,542361164 3,315789474

11,11905549 10 2,434844967 1,315789474

11,31720827 10 2,632997743 1,315789474

10,93319554 10 2,248985018 1,315789474

8,17218744 9 -0,512023086 0,315789474

8,729767288 8 0,045556762 -0,684210526

8,159894613 8 -0,524315913 -0,684210526

8,027792762 8 -0,656417764 -0,684210526

6,088568208 8 -2,595642318 -0,684210526

8,382633044 7 -0,301577483 -1,684210526

8,17218744 7 -0,512023086 -1,684210526

7,350403891 7 -1,333806636 -1,684210526

6,871167796 7 -1,813042731 -1,684210526

6,154619133 6 -2,529591393 -2,684210526

3,261509179 4 -5,422701348 -4,684210526

3,20775108 3 -5,476459446 -5,684210526

Suma Desvíos Cuadráticos Suma Producto Desvíos

153,1735417 170,1052632 153,1735417

Page 134: 8 Libros Tecnologia 2010

Por lo tanto el coeficiente de correlación muestral múltiple es:

2

0,9482

0,9004

r

R

=

=

Comprobándose de esta manera, que coincide con el coeficiente de determinación.

REFERENCIAS BIBLIOGRÁFICAS

Anderson, Sweeney y Williams. (1999). Estadística para Administración y Economía. México. Editorial International Thompson.

Berenson Levine y Krehbiel. (2001). Estadística para Administración Editorial. México. Prentice Hall.

David Hildebrand y R. Lyman Ott. (1997). Estadística Aplicada a la Administración y a la Economía. Estados Unidos. Addison-Wesley Iberoamericana.

Page 135: 8 Libros Tecnologia 2010

APLICACIONES DE LAS INTEGRALES DEFINIDAS E INTEGRALES DOBLES MEDIANTE EL EMPLEO DE

HERRAMIENTAS INFORMÁTICAS

Luisa L. Lazzari Andrea Parma

María José Fernández INTRODUCCIÓN

La matemática es importante por sus aplicaciones, pero para apreciar su potencia para tratar con problemas de la realidad el alumno debe tener la experiencia efectiva de enfrentar esos problemas (Patricia Sadovsky1

El empleo de medios tecnológicos en la enseñanza de la matemática ha hecho posible el desarrollo de numerosas experiencias didácticas en los distintos niveles educativos, incidiendo en la manera de enseñar y en la selección de contenidos. El empleo de programas de computación adecuados ofrece un medio para que el estudiante explore, conjeture, analice, verifique ideas y desarrolle habilidades y estrategias útiles para la resolución de problemas y construya un conocimiento matemático más amplio y profundo.

, 2010). El uso de recursos informáticos es una importante ayuda para que los estudiantes universitarios puedan realizar esa experiencia.

En la actualidad existen numerosos programas de cálculo simbólico, los cuales resultan de gran utilidad para muchos especialistas en diversas disciplinas, ya que ahorran tiempo y esfuerzo en la resolución de una gran variedad de problemas; además las soluciones obtenidas resultan más fiables que las obtenidas manualmente. Entre otros, el programa Mathematica permite realizar cálculos numéricos y simbólicos y graficar funciones. Brinda, además, un entorno de modelización y análisis de datos, y puede ser utilizado en la enseñanza de las materias del Área Matemática en esta Facultad.

Al emplear programas de cálculo simbólico los alumnos podrán adquirir un conjunto de habilidades para resolver eficazmente cálculos y problemas; desarrollar una actitud crítica hacia las herramientas informáticas que les permita seleccionar aquellas más adecuadas a la situación problemática que deban resolver; potenciar el desarrollo del

1 Sadovsky, P. “La matemática es más que un jueguito de ingenio: es desafío intelectual”. Diario Clarín, Zona, 25/04/2010.

Page 136: 8 Libros Tecnologia 2010

conocimiento; y explorar y resolver problemas concretos vinculados a su futura vida profesional.

Diferentes disciplinas, tales como la Física, la Economía, la Administración, la Genética, la Biología, la Ingeniería y la Estadística, se valen del Cálculo Integral para resolver diversos problemas de su campo de conocimiento.

En este trabajo se estudian algunas aplicaciones de la integral definida y de las integrales dobles con la asistencia de programas de computación específicos. Para realizar las representaciones se emplean el Mathematica y el Advanced Grapher. Se utiliza el comando Integrate del Mathematica para calcular integrales definidas y demostrar situaciones problemáticas que requieren del cálculo simbólico. Finalmente se muestra la utilidad de este último software para realizar aproximaciones numéricas de las integrales definidas.

1. SITUACIONES PROBLEMÁTICAS

1.1. Si las funciones de demanda y oferta de cierto artículo son, respectivamente 2( ) 16D x p x= = − ; ( ) 4O x p x= = + hallar:

a) El excedente del consumidor.

b) El excedente del productor.

Se obtiene el punto de equilibrio con el Mathematica y se grafica (Figura 1) con el Advanced Grapher.

Page 137: 8 Libros Tecnologia 2010

Figura 1. Excedente del productor y del consumidor

Se descarta la solución 4−=x porque carece de sentido económico.

2( ) 16

(3) 7

p x x

p

= −

=

3

7

x

p

=

=

Se calcula el excedente del consumidor (EC) con el Mathematica:

dxxdxpxDECex

e )716())(( 23

00

−+=−= ∫∫

3 2

0(16 7) 18x dx− − =∫

A continuación se obtiene el excedente del productor (EP):

dxxdxxOpEPex

e )47())((2

00

−−=−= ∫∫

3

09(7 4) 2x dx− − =∫

x

p

1 2 3 4 5 6

7

14

0

216 xp −=

4+= xp

( )7;3

E.C.

E.P.

Page 138: 8 Libros Tecnologia 2010

1.2. Una industria ha comprado una máquina cuya producción

proporciona un beneficio adicional ( ) 2

41225 ttB −= (ingreso adicional

menos el costo adicional por mano de obra y materiales), donde B(t) representa unidades monetarias (u.m.) y t está expresado en años. El costo adicional R(t) por reparaciones y mantenimiento es ( ) 22ttR = , donde R son u.m. y t es el tiempo en años.

a) ¿Cuándo debe desecharse la máquina y cuál es la ganancia neta en ese momento, si se supone que este proceso puede efectuarse sin costo alguno, es decir sin valor de recuperación?

Dadas las condiciones del enunciado, la máquina se descarta cuando el beneficio adicional es igual al costo de reparaciones:

Figura 2. Ganancia neta

t (años)

E(t),R(t) (u.m.)

10 20 30 40

225

0

( ) ( )TRTU − ( ) ( ) ( )tRtBtM −=

Page 139: 8 Libros Tecnologia 2010

La máquina debe desecharse a los diez años. Las ganancias netas totales (utilidades menos costo por reparación) a los 10 años se calculan con la siguiente integral:

1500

Por lo tanto las ganancias totales son de 1500 u.m.

b) Si se supone que la máquina tiene un valor de recuperación al

tiempo t de ( )t

tS+

=66480

, donde t representan años y S (t) unidades

monetarias. ¿Al cabo de cuántos años debe desecharse dicha máquina?

La ganancia neta M (t) al cabo de t años se representa por la siguiente integral definida:

La compañía maximiza sus ganancias netas si se deshace de la

máquina en un tiempo t, donde las ganancias netas sean iguales al valor de recuperación:

648

La máquina deberá ser desechada a los 4 años, al cabo de los cuales la ganancia neta es de 648 u.m.

Page 140: 8 Libros Tecnologia 2010

Figura 3. Descarte de la máquina

1.3. Si el flujo de inversión neto está dada por la ecuación ( ) 31

12ttI = y

el stock de capital en el momento 0=t es ( ) 250 =K .

a) Hallar la trayectoria temporal del stock de capital K.

b) Hallar la cantidad de capital acumulado durante los períodos [0,1] y [1,3] respectivamente.

El capital acumulado durante el intervalo [0,t], para cualquier tasa de inversión ( )tI está expresado por la integral definida:

( ) ( ) ( ) ( )0]00

KtKtKdttI tt

−==∫ .

Esta ecuación proporciona la siguiente expresión para la trayectoria temporal:

( ) ( ) ( )0

0t

K t K I t dt= + ∫

(4 ;648)

2 4 6 8 10t

200

400

600

800

1000

1200

1400

St,Mt

( ) 3

432251500 tttM +−=

( )tS+

=6648

( )648;4

Page 141: 8 Libros Tecnologia 2010

A continuación, se obtiene la trayectoria temporal del stock de capital K(t) y el capital acumulado con el Mathematica

Por lo tanto, la trayectoria temporal del stock de capital es:

La cantidad de capital acumulado en el período [0,1] es:

[ ] [ ]1 0 9K k− =

Figura 4. Capital acumulado en el período [0,1]

t

I(t)

1 2 3 4

2468

1012141618

0

La cantidad de capital acumulado en el período [1,3] es:

[ ]%N 29.9407

Page 142: 8 Libros Tecnologia 2010

Figura 5. Capital acumulado en el período [1,3]

t

I(t)

1 2 3 4

2468

1012141618

0

1.4. Un comerciante posee una determinada cantidad de cajas de vino para vender cuyo precio de compra es C, pagado en el momento actual. Su precio de venta futuro, se denota como V (t) y por consiguiente su valor actual será ( ) rtetV − , donde r es la tasa continua de descuento. Suponiendo que el costo de almacenamiento es una corriente constante de “s” dólares por año.

a) Calcular el valor actual del costo de almacenamiento incurrido en un total de t años.

b) Calcular el valor actual neto M(t).

c) Verificar que la condición necesaria para maximizar M(t) es que el ingreso marginal coincida con el costo marginal.

d) En la Figura 6 se muestra la resolución de este problema con el Matemática.

Page 143: 8 Libros Tecnologia 2010

Figura 6. Maximización del valor actual neto M(t)

a) El valor actual del costo de almacenamiento incurrido en un total de t años es:

b) El valor actual neto es:

c) La última expresión de la Figura 6 ( ) ( ) stVrtV +=′ corresponde a

la condición necesaria para maximizar M(t) ya que ( )tV ′ representa el incremento de V(t), si la venta se pospone un año (ingreso marginal), mientras que los dos términos del segundo miembro indican, respectivamente, los incrementos en el costo del interés y el costo de almacenamiento que obedecen al diferimiento de la venta (costo marginal).

Page 144: 8 Libros Tecnologia 2010

1.5. El consumo de petróleo de una industria entre 1976 y 1990 está

expresado por la función ( ) 41 ttP += (t años, P (t) en BTU). Calcular el consumo promedio aproximado de petróleo de la empresa entre los años 1980 y 1990.

Para resolver el problema hay que calcular la integral definida

dttdtttt

Ct

t∫∫ +=+

−=

14

4

44

01

110111 1

0

.

Como no existe primitiva de la función P (t) no se puede resolver con el comando Integrate. Por este motivo es necesario utilizar un método de aproximación numérica, que el Mathematica lo tiene incorporado en el comando NIntegrate.

Figura 7. Consumo de petróleo entre 1980 y 1990

2.6. Hallar el volumen de un cuerpo V limitado por 0,2,82 ==+= zzxxy .

Page 145: 8 Libros Tecnologia 2010

Figura 8a. Cuerpo V

Figura 8b. Proyección de V

Page 146: 8 Libros Tecnologia 2010

Se observa en las Figuras 8a y 8b que el cuerpo V, determinado por las superficies 0,2,82 ==+= zzxxy es la parte que queda por encima

del plano 0=z limitado en su parte superior por el cilindro parabólico

xy 82 = y el plano 2=+ zx .

La proyección del conjunto V sobre el plano 0=z es

( )

≤≤ℜ∈= 28

/,2

2 xyyxR .

Se representa el recinto R con el comando “Plot”:

Figura 9. Recinto de integración R

El cuerpo V está limitado inferiormente por el recinto R y superiormente por el plano 2=+ zx . Por lo tanto para calcular el volumen del cuerpo V

se emplea la integral doble ( ) dydxyxfR∫∫ , , siendo ( ) xyxf −= 2, .

Se realiza el cálculo de dicha integral doble con el Mathematica:

xy 8=

0=x

y 8−=

2=x =x

Page 147: 8 Libros Tecnologia 2010

El volumen del cuerpo V es 15

128

1.7. La Función de Producción de Cobb – Douglas para una industria es ( ) 4,06,0100, yxyxQ = donde x representa unidades de trabajo e y

unidades de capital. Estimar el nivel de producción medio si x varía entre 100 y 200 unidades, e y varía entre 300 y 350.

Se representa el cuerpo limitado superiormente por la función de producción de Cobb – Douglas e inferiormente por Q=0.

Figura 10. Producción total

Para obtener el nivel de producción medio se debe calcular la siguiente integral doble:

( ) dydxyxQA

Q ∫ ∫=350

300

200

100

,1

Page 148: 8 Libros Tecnologia 2010

A representa el área del recinto de integración, que en este caso es un rectángulo de base 50 y altura 100. De allí que el área es 5000.

2.8. Dada la función de producción ( ) ( )yxyxSinyxQ =, . Estimar el

nivel de producción medio si “x” varía entre 0.5 y 2 unidades e “y” varía entre 0.5 y 1.5 unidades.

Como en el problema anterior, se representa el cuerpo limitado superiormente por la función de producción e inferiormente por Q = 0.

Figura 11. Producción total

En este caso el área del recinto de integración es 1.5. Por lo tanto, el nivel de producción media es:

Page 149: 8 Libros Tecnologia 2010

El Mathematica no puede resolver esta integral doble con el comando

“Integrate” dado que no existe primitiva de la función P (t). Nuevamente se puede utilizar el comando “NIntegrate” para aproximar el valor de la integral doble.

Por lo tanto la producción media aproximada es 0.744858.

2. COMENTARIOS FINALES

El uso de la computadora en la enseñanza de la Matemática permite incluir ejercitación más compleja desde el punto de vista del cálculo, y también más próxima a las reales condiciones del trabajo que desempeñarán los alumnos en su vida profesional, a la vez que dinamiza la operatoria rutinaria.

Es importante que los futuros profesionales tomen contacto con las herramientas informáticas, y una vez conocido el manejo básico, encuentren estímulo para realizar sus propias exploraciones acerca de la potencia de los programas utilizados, e incluso busquen otros que se adapten mejor a sus necesidades (Chaparro y Lazzari, 2004).

Consideramos que las actividades presentadas en este trabajo incentivan al alumno a utilizar recursos informáticos para la resolución de diversos problemas de las asignaturas del Área Matemática.

REFERENCIAS BIBLIOGRÁFICAS Allen, R.G.D. (1960): Mathematical Economics. Londres, Macmillan & Co LTD.

Apostol, T. (1999): Calculus, Volumen II. Barcelona, Reverté, S. A.

Balbás de la Corte, A.; Gil Fana, J.A.; Gutiérrez Valdeón, S. (1991): Análisis Matemático para la Economía I. Cálculo diferencial. Madrid, AC, Thomson

Page 150: 8 Libros Tecnologia 2010

Castillo, E.; Iglesias, A.; Gutiérrez, J.; Alvarez, E.; Cobo, A. (1996): Mathematica. Madrid, Paraninfo.

CALVO, M., Escribano, M., Fernández, G., García, M., Ibar, R., Ordás, M. (2003): Problemas resueltos de Matemáticas aplicadas a la Economía y a la Empresa. Madrid, AC, Thomson.

Chiang, A. (1999): Análisis Matemático para la Economía I. Cálculo diferencial. México, McGraw-Hill.

Tan, S. T. (1998): Matemáticas para la administración y economía. México, Internacional Thomson Editores.

Webb, S.C. (1994): Economía de la empresa. México, Limusa.

Wolfram, S. (1991): Mathematica. Illinois, Addison-Wesley Publishing Company, Inc.

Page 151: 8 Libros Tecnologia 2010

APLICACIONES DE ESTADÍSTICA NO PARAMÉTRICA MEDIADAS POR LA TECNOLOGÍA

Emma Fernández Loureiro Ana M. Marsanasco

INTRODUCCIÓN

La capacidad reproductiva y divulgadora que posee la tecnología la convierte en una herramienta de gran utilidad para la educación y, al mismo tiempo, ubica al docente en un rol de guía o tutor en el devenir del aprendizaje. La incorporación de los recursos tecnológicos tiene como finalidad complementar y hacer más efectivos los métodos tradicionales utilizados, actuando como integradores dentro de la estrategia de enseñanza.

Sin duda, la resolución de problemas mediante un software favorece la integración y el fortalecimiento de los conocimientos presentados por el docente ya sea en clases magistrales, cursos de promoción, a distancia, por Internet, etc.

Las actividades de investigación realizadas por las autoras de este trabajo dieron origen a la presente propuesta recomendando el uso del software GraphPad Prism 5.0 como herramienta de enseñanza y/o de aplicaciones empíricas.

La elección de este software se basó principalmente en los test no paramétricos que calcula. Creímos, entonces, que la necesidad de manejar un programa que realiza gráficos, ajusta curvas y calcula pruebas estadísticas no sería sólo nuestra y decidimos encarar este trabajo.

A efectos de presentar, aunque sea parcialmente, el uso del GraphPad Prism, proponemos a continuación algunos problemas y su resolución utilizando el software. El mismo puede adquirirse en el sitio web oficial www.graphpad.com .

1. ALGUNOS EJEMPLOS

1.1. Un ejemplo sencillo aplicable a un curso inicial de Estadística

La siguiente tabla presenta los datos correspondiente a la cantidad de hijos de los empleados que trabajan en una de las sucursales de una empresa del rubro ventas al por menor.

Page 152: 8 Libros Tecnologia 2010

Tabla 1.

N° de Legajo Hijos a cargo

1 2 2 4 3 1 4 3 5 2 6 2 7 5 8 3 9 2 10 2 11 4 12 0 13 3 14 2 15 1 16 3 17 4 18 8 19 1 20 6 21 2 22 0 23 3 24 2 25 1

A partir de los datos se pueden presentar tablas de frecuencia simples

y acumuladas, para ello seguiremos los siguientes pasos:

1) Copiar los datos como columnas.

2) Ir a la solapa Analysis en el menú superior y apoyar el mouse sobre el ícono que dice Analyses, luego elegir Frecuency distribution y sólo tildar la columna “hijos a cargo”, luego en la opción Create seleccionar Frecuency distribution nuevamente.

Page 153: 8 Libros Tecnologia 2010

3) Para completar la tabla de frecuencias acumuladas se debe realizar lo indicado anteriormente pero en la opción Create tildar Cumulative frecuency distribution.

4) En la carpeta Graphs se podrán visualizar y modificar los gráficos resultantes.

La tabla siguiente presenta la distribución frecuencias simples y acumuladas exhibidas por el programa en la carpeta Results y, a continuación se exhiben los gráficos correspondientes (histograma y frecuencias acumuladas).

Tabla 2.

Bin center Hijos a cargo

Empleados fi

Empleados Fa

0 2 2 1 4 6,000 2 8 14,000 3 5 19,000 4 3 22,000 5 1 23,000 6 1 24,000 7 0 25,000 8 1 25,000

Gráfico 1. Histograma

0 1 2 3 4 5 6 7 80

2

4

6

8

10

Hijos a cargo

Empl

eado

s

Page 154: 8 Libros Tecnologia 2010

Gráfico 2. Frecuencias acumuladas

0 1 2 3 4 5 6 7 8 9 100

10

20

30

Hijos a cargo

Empl

eado

s

1.2. Análisis de Varianza (one way) y post test de Turkey

Para mejorar la resistencia de algunas fibras sintéticas se sugieren dos nuevos procesos alternativos. La siguiente tabla muestra la resistencia de las fibras (en kg/cm) para cada proceso. Se desea verificar si hay diferencia significativa entre las resistencias de las fibras tratadas en cada uno de ellos.

Tabla 3.

Control Proceso 1 Proceso 2 19 20 25 17 21 23 18 17 25 20 20 23 20 19 23 17 23 24 22 20 25

Page 155: 8 Libros Tecnologia 2010

A fin de realizar el análisis ANOVA requerido, ingresamos los datos como columnas en el software. Luego, vamos a Analyses, seleccionamos One-way ANOVA y elegimos el test que se desea calcular. En este caso, optamos por el test One-way análisis of variance. También, tildando la opción Output, se puede crear una tabla de estadística descriptiva para cada columna. Los resultados presentados en la carpeta Results son los siguientes:

Tabla 4.

One-way analysis of variance P value P<0.0001 P value summary *** Are means signif. different? (P < 0.05) Yes Number of groups 3 F 19,17 R squared 0,6806 Bartlett's test for equal variances Bartlett's statistic (corrected) 2,273 P value 0,3210 P value summary ns Do the variances differ signif. (P < 0.05) No

Tabla 5.

ANOVA Table SS df MS Treatment (between columns) 98,00 2 49,00 Residual (within columns) 46,00 18 2,556 Total 144,0 20

Si analizamos los resultados en términos del problema podemos concluir que siendo p<0,0001 se rechaza la hipótesis nula de igualdad. Por tanto, hay diferencias significativas entre la resistencia promedio de las fibras tratadas con los distintos procesos. Entonces, sería oportuno preguntarse si la diferencia se observa entre los procesos entre sí, o bien con el control. Para responder este interrogante calcularemos el postest de Tukey. Este postest es uno de los ofrecidos por el programa, permite

Page 156: 8 Libros Tecnologia 2010

comparar todas las columnas entre sí. Las múltiples comparaciones del postest de Tukey se pueden observar en la tabla siguiente.

Tabla 6.

Tukey's Multiple Comparison Test

Mean Diff.

Significant? P < 0.05? Summary 95% CI of diff

Control vs Proceso 1 -1,000 No Ns -3.181 to 1.181 Control vs Proceso 2 -5,000 Yes *** -7.181 to -2.819

Proceso 1 vs Proceso 2 -4,000 Yes *** -6.181 to -1.819

No existe diferencia significativa entre el control y el proceso 1 y se aprecian diferencias altamente significativas (*** p< 0.001) entre la resistencia de las fibras tratadas con el Proceso 1 y el Proceso 2, y aquellas tratadas con el control y el proceso 2.

También el Graphpad permite realizar un gráfico para visualizar las diferencias halladas. Para ello nos ubicamos en la carpeta Graphs, luego en la solapa Change del menú superior elegimos el ícono gráfico que dice Choose a different type of graph (la leyenda se podrá leer apoyando el mouse sobre el ícono). Elegimos, entonces, el tipo de gráfico deseado: en este caso optamos por Box & Whiskers, vertical.

Gráfico 3.

Control

Proce

so 1

Proce

so 2

16

18

20

22

24

26 ***# # #

***p< 0.001 diferencia altamente significativa entre el proceso de control y el proceso 1. # # # p< 0.001 diferencia altamente significativa entre el proceso 1 y 2.

Res

iste

ncia

de

las

fibra

s

Page 157: 8 Libros Tecnologia 2010

1.3. Prueba de Wilcoxon para dos muestras relacionadas

Se desea comparar, con un nivel de significación de 0,05, si en un grupo de alumnos existe diferencia significativa en su rendimiento después de haber asistido a seis clases magistrales de un profesor especializado en la asignatura que cursan. La escala de calificaciones numéricas es de 0 a 100. Se seleccionaron aleatoriamente 10 alumnos y se obtuvieron las siguientes resultados:

Tabla 7.

Alumno Antes Después A 40 93 B 62 50 C 45 96 D 78 95 E 52 55 F 88 98 G 41 58 H 73 59 I 80 70 J 65 100

Usaremos la prueba no paramétrica de Wilcoxon por cuanto las calificaciones conforman una variable ordinal. Por ejemplo, observando la columna Antes no podríamos objetivamente decir que el rendimiento del alumno I es el doble que el A.

Ingresamos los datos como columnas y vamos a la opción Analyses. Luego, de las opciones desplegadas de Column analyses, elegimos t tests (and nonparametric tests) y tildamos las columnas que nos interesa analizar. En la ventana que se abre elegimos el test Wilcoxon matched pairs test, previamente se deberán tildar las casillas correspondientes a Paired test y Nonparametric test. La tabla siguiente muestra el análisis que presenta el software en la carpeta Results.

Page 158: 8 Libros Tecnologia 2010

Tabla 8.

Wilcoxon signed rank test P value 0,1137 Exact or approximate P value? Gaussian Approximation P value summary ns Are medians signif. different? (P < 0.05) No One- or two-tailed P value? Two-tailed Sum of positive, negative ranks 11.50 , -43.50 Sum of signed ranks (W) -32,00 How effective was the pairing? rs (Spearman, Approximation) 0,3091 P Value (one tailed) 0,1924 P value summary Ns Was the pairing significantly effective? No

El valor p obtenido (0,1137) es mayor al nivel de significación prefijado (0.05); ello no nos permite rechazar la hipótesis nula que no existen diferencias significativas en las calificaciones de los alumnos antes y después de asistir a las clases magistrales. Podríamos razonar, también, que el valor p es suficientemente alto como para sustentar la hipótesis nula.

Por otra parte, al realizar el test de Wilcoxon el software permite calcular el coeficiente de correlación de Spearman y la respectiva prueba de hipótesis de no correlación entre los grupos. El coeficiente de correlación resultó 0,3091 y 0,387 el valor p asociado al test, valor suficientemente alto para sustentar la hipótesis nula de no correlación entre los grupos. Esto significaría que en el rendimiento de los alumnos influyen otras variables además de la asistencia a clase.

Por último, ajustamos el gráfico al problema que nos ocupa: desde la carpeta Graphs vamos al ícono de la solapa Change que nos permite seleccionar los tipos de gráficos y elegimos Before-after. La figura siguiente muestra el gráfico resultante.

Page 159: 8 Libros Tecnologia 2010

Gráfico 4.

Antes Después20

40

60

80

100

Not

a de

los

alum

nos

1.4. Prueba de Mann Whitney para dos muestras

independientes

Un profesor de estadística impartió clase a dos grupos de diez alumnos cada uno. Los diez integrantes de cada grupo son considerados alumnos sobresalientes. El profesor utilizó el método presencial para un grupo y un método a distancia para el otro grupo. Al final del período clasificó a los estudiantes sobre la base de su desempeño con escala numérica de 0 a 100. El profesor designó con letras a los alumnos del grupo presencial y con número romanos a los del grupo a distancia. Los resultados fueron los siguientes:

Tabla 9.

Alumno Calificación Alumno Calificación A 40 I 93 B 62 II 50 C 45 III 96 D 78 IV 95 E 52 V 55 F 88 VI 98 G 41 VII 58 H 73 VIII 59 I 80 IX 70 J 65 X 100

Page 160: 8 Libros Tecnologia 2010

El profesor desea verificar, con un nivel de significación 0,05, si existe diferencia significativa en el desempeño de los alumnos según hayan cursado uno u otro método.

De forma similar a lo realizado en los problemas anteriores, primero ingresamos los datos como columnas, luego vamos a Analyses, elegimos el análisis t tests (and nonparametric tests) y tildamos las dos columnas. Después seleccionamos el test de Mann-Whitney, habiendo tildado previamente la opción Nonparametric test. El análisis resultante se presenta en la tabla siguiente.

Tabla 10.

Mann Whitney test P value 0,1230 Exact or approximate P value? Exact P value summary ns Are medians signif. different? (P < 0.05) No One- or two-tailed P value? Two-tailed Sum of ranks in column A,B 84,126 Mann-Whitney U 29,00

El valor p resultante (0,1230) es suficientemente alto como para sustentar la hipótesis nula de igualdad. Por tanto, el profesor puede concluir que no existen diferencias significativas en el desempeño de los alumnos según haya cursado con el método presencial o con el método a distancia.

2. REFLEXIONES FINALES

Tal como decimos en la Introducción: “Es indiscutible que conocer el funcionamiento de software afines a la actividad laboral y/o de investigación agiliza la resolución de problemas”. Esta circunstancia nos obliga en nuestro rol de docentes e investigadores a la búsqueda constante de programas que, satisfaciendo nuestras necesidades, sean sencillos de manejar. Por otra parte, el alto costo de algunos software puede ser limitante en ciertas circunstancias. El GraphPad Prism versión 5.0 cumple con ambos requisitos: fácil manejo y sin costo dado que puede ser bajado, temporariamente, desde Internet. En nuestra tarea de

Page 161: 8 Libros Tecnologia 2010

investigación, especialmente para diversos problemas de Estadística no Paramétrica, nos ha resultado de suma utilidad. Aspiramos a que nuestra experiencia sea útil a quienes aún no lo han probado.

REFERENCIAS BIBLIOGRÁFICAS

Fernández Loureiro, E. (2004): Estadística no paramétrica, a modo de Introducción. Ediciones Cooperativas, Buenos Aires.

Gibbons, J. D. (1997): Nonparametric Methods for Cuantitative Analysis, American Sciences Press, New York.

Siegel, S. y Castellan, N.J. Jr. (1988): Nonparametric statistics for the behavioral sciences, McGraw Hill International, Singapore.

SITIOS DE INTERNET CONSULTADOS

www.graphpad.com

Page 162: 8 Libros Tecnologia 2010
Page 163: 8 Libros Tecnologia 2010

EL USO DE EXCEL EN EL CÁLCULO DE LAS COBERTURAS PAGADERAS POR FRACCIÓN DE AÑO, BAJO LAS DISTINTAS

HIPÓTESIS.

María Alejandra Metelli Paula Mutchinick

INTRODUCCIÓN

El objetivo del presente trabajo es mostrar cómo a través de una planilla de cálculo pueden obtenerse las aproximaciones correspondientes a las coberturas de vida y muerte con pago de capitales en forma fraccionaria.

En el campo de seguros personales pueden ofrecerse coberturas de vida o de muerte. Las coberturas de vida son aquellas en las cuales el asegurador se compromete al pago de un único capital asegurado – capital diferido de vida – o de una sucesión de capitales asegurados – seguros de vida de capitales múltiples – en caso de supervivencia.

Las coberturas de muerte son aquellas en las cuales el asegurador se compromete al pago del capital asegurado a los derechohabientes al producirse el fallecimiento del asegurado.

En el caso de las coberturas de vida el pago puede ser anual o fraccionarse a lo largo del año y cobrarse una fracción de capital en cada fracción de año mientras que en el caso de las coberturas de muerte el pago no se fracciona pero sí puede realizarse al fin del año de fallecimiento o al final de la fracción del año de fallecimiento.

Las primas únicas correspondientes a las coberturas mencionadas se calculan utilizando las denominadas bases técnicas:

Tabla de mortalidad1

Tasa de interés

Los valores provenientes de la tabla de mortalidad son anuales; con lo cual, para el cálculo de las coberturas en forma fraccionaria, es necesario adecuar las mismas a fin de poder calcular las probabilidades de supervivencia y de muerte intervinientes.

1 La tabla de mortalidad en algunos casos puede ser reemplazada por una ley de mortalidad.

Page 164: 8 Libros Tecnologia 2010

Se presentarán, en consecuencia, en primer término las hipótesis que pueden ser aplicadas a tal fin para posteriormente, mostrar cómo se aplican en el cálculo de las coberturas correspondientes.

1. HIPÓTESIS APLICADAS

1.1 Distribución uniforme de fallecimientos (D.U.F.)

El supuesto que se tiene en cuenta es que los fallecimientos que tienen lugar entre dos edades enteras consecutivas están uniformemente distribuidos a lo largo del año; es decir, son directamente proporcionales a la fracción de año considerada.

Se define como k el número de partes en que puede dividirse un año. Puede plantearse entonces que la probabilidad de fallecer en un k-ésimo de año es:

q(x;s/k;1/k)=1/k * q(x;0;1)

donde:

k son las porciones en que se ha dividido el año.

q(x;s/k;1/k) es la probabilidad de que una persona de edad x fallezca entre las edades x+s/k y x+(s+1)/k.

q(x;0;1) es la probabilidad anual de muerte para una persona de edad x.

Se observa que la probabilidad de fallecimiento en una fracción de año depende del tiempo de exposición al riesgo de muerte dentro del año. Asimismo, se observa que la mencionada probabilidad es constante dentro del intervalo anual, es decir no depende de la ubicación de la fracción.

A partir del supuesto indicado puede derivarse la probabilidad de que una persona de edad x sobreviva a la edad x + s/k del siguiente modo:

p(x;s/k)=1- s/k. q(x;0;1)

Page 165: 8 Libros Tecnologia 2010

1.2 Distribución uniforme del capital diferido de vida (D.U.E.)

El supuesto que se tiene en cuenta es que para una edad entera de valuación “x” y entre dos plazos (o edades) consecutivos y enteros, el factor de actualización actuarial para el caso de vida tiene una distribución uniforme, es decir que puede aproximarse linealmente de la siguiente forma:

E(x;h+s/k)=(1-s/k)*E(x;h) + s/k*E(x;h+1)

E(x;h+s/k)= E(x;h) - s/k.[ E(x;h) - E(x;h+1) ]

Donde:

E(x;h) es el valor actual actuarial a la edad x de $1 pagadero a la edad x + h en caso de supervivencia.

E(x;h+s/k) es el valor actual actuarial a la edad x de $1 pagadero a la edad x + h +s/k en caso de supervivencia.

Teniendo en cuenta que:

E(x;s/k)= vs/k.p(x;s/k)=(1+i)-s/k.p(x;s/k)

Se deriva la probabilidad de supervivencia aplicando la distribución uniforme del capital diferido de vida:

p(x;s/k)=(1+i)s/k.{1 - s/k. [1 - E(x;1)]}

Resulta, en consecuencia, la siguiente expresión para la probabilidad diferida y temporaria de fallecimiento

q(x;s/k;1/k)=(1+i)s/k. {1/k.[1-E(x;1)].[1+(s+1).i(k) ] - i(k) }

Donde:

i(k) = (1+i)1/k -1

Se puede observar que q(x;s/k;1/k) es una función creciente respecto de “s”.

Del análisis de ambas hipótesis puede observarse que:

La hipótesis de D.U.F. arroja como resultado que entre edades enteras consecutivas, la probabilidad de muerte con edad de valuación igual a la menor de ellas, diferidas y temporarias por una fracción de año, resultan

Page 166: 8 Libros Tecnologia 2010

ser iguales mientras que en el caso de la hipótesis de D.U.E., las mismas resultan ser crecientes.

Por lo tanto en el cálculo de las primas de los seguros de vida tendremos que, al aplicar la hipótesis de D.U.E. en coberturas fraccionarias, los resultados serán superiores a los que produce la hipótesis de D.U.F. En el caso de los seguros de muerte con pago del capital asegurado al fin de la fracción del año del fallecimiento, la hipótesis de D.U.E. arroja resultados inferiores que los resultantes de la aplicación de la hipótesis de D.U.F.

Sin embargo, las diferencias entre los resultados que arrojan las hipótesis consideradas no resultan significativas y en la práctica vigente interesa fundamentalmente la complejidad de las fórmulas de cálculos resultantes.

En el Anexo I se presenta un ejemplo numérico comparativo en relación a las probabilidades considerando ambas hipótesis.

2. COBERTURAS FRACCIONARIAS

2.2 Seguros de vida de capitales múltiples

Sea a(x;0;1;k) un seguro de vida de capitales múltiples de vigencia anual con k pagos fraccionarios de 1/k cada uno.

La prima pura única de una cobertura de vida con capitales constantes (múltiples) para una persona de edad “x” con primer pago del capital asegurado a la edad “x+h” por el plazo de “n” años y pago del capital unitario anual en “k” fracciones de año se simboliza y determina como:

a(x;h;n;k)=s=0∑n.k-1 1/k .E(x;h+s/k)

donde: x es la edad de contratación

h es el plazo de diferimiento

n es el plazo de cobertura

k es la cantidad de pagos por año

Page 167: 8 Libros Tecnologia 2010

El caso planteado corresponde a lo que recibe el nombre de seguros de vida de capitales múltiples de riesgo diferido y plazo limitado. Se analiza este caso porque se trata del caso general. Cabe mencionar que el riesgo puede ser también inmediato mientras que el plazo de la cobertura puede ser también indefinido; es decir, por toda la vida. En consecuencia, en este tipo de seguro hay cuatro combinaciones posibles.

A fin de poder resolver la prima pura única planteada, es necesario realizar algún supuesto acerca de la distribución de sus componentes. Conforme lo expuesto al inicio del presente trabajo, las distribuciones uniformes pueden aplicarse a:

El número de fallecidos en el año

El capital diferido de vida

Se detallan los resultados obtenidos bajo cada una de las hipótesis.

Aplicando la hipótesis D.U.F.

a(x;h;n;k)=a(x;h;n)*i*d/( j(k)*f(k) ) - w(k)*[ E(x;h) - E(x;h+n) ]

Donde:

i es la tasa de interés efectiva anual

j(k) es la tasa de interés nominal anual con capitalización k veces en el año

d es la tasa de descuento efectiva anual

f(k) es la tasa de descuento nominal anual con actualización k veces en el año

w(k) = [i - j(k)] / [ f(k).j(k) ]

Aplicando la hipótesis D.U.E.

a(x;h;n;k)=a(x;h;n) - (k-1)/2k* [ E(x;h) - E(x;h+n) ]

Para los seguros pagaderos en caso de supervivencia, se verifica que D.U.E. > D.U.F.

En el Anexo II se presenta un ejemplo numérico comparativo con ambas hipótesis.

Page 168: 8 Libros Tecnologia 2010

Es interesante mostrar que, aplicando la fórmula de Woolhouse2

El desarrollo por Woolhouse para la función f(a+h/k .t) adopta la siguiente forma:

, se obtiene el mismo resultado que al suponer distribución uniforme del capital diferido de vida.

t=0Σn.k-1 f(a+h/k .t)=k. t=0Σ

n-1 f(a+h.t) + (k-1)/2.[f(a+n.h)-f(a)]- (k2-1)/2 .h/k .[f ’(a+n.h)-f ’(a)]+....

Para el caso particular de la función capital diferido de vida: f(a+h/k .t) = E(x;t/k), se tiene que los argumentos están dados por:

a=x h=1

De este modo, la prima pura única del seguro de vida de capitales múltiples a(x;0;n;k)= t=0Σ

n.k-1 1/k * E(x;t/k )

queda expresada como;

a(x;0;n;k)= t=0Σn.k-1 1/k * E(x;t/k ) = 1/k * { k . t=0Σ

n-1 E(x;t) + (k-1)/2 * [ E(x;n) - E(x;0) ] - (k2-1)/2*k [-E(x;n)*(u(x+t)+δ) -(-1)* ( u(x) + δ ) ]3

Se observa que los dos primeros términos de la aproximación por Woolhouse se corresponden con la aplicación del supuesto D.U.E.

}

2.3 Seguros accionarios - Muerte

La prima pura única de una cobertura de muerte para una persona de edad “x” con pago del capital unitario al fin de la fracción de año del fallecimiento, se simboliza y calcula como:

A(x;h;n;k)=s=0∑n.k-1 A(x;h+s/k;1/k;k)

donde: x es la edad de contratación

h es el plazo de diferimiento

2 Fórmula de sumación de Woolhouse utilizada para aproximar la integral de una función. 3 E’(x;t)=d/dt vt.p(x;t)= vt. ln v .p(x;t) + vt .[-u(x+t).p(x;t)]= -E(x;t) . [u(x+t)+ δ ] siendo δ= ln v

Page 169: 8 Libros Tecnologia 2010

n es el plazo de cobertura

k es la cantidad de pagos probables por año.

Esta prima pura correspondiente a un seguro de muerte puede ser expresada en función de los seguros de vida de capitales múltiples.

Se tiene entonces que:

A(x;h+s/k;1/k;k)=v1/k*E(x;h+s/k) - E(x;h+(s+1)/k)

De modo que:

A(x;h;n;k)=E(x;h) - E(x;h+n) - f(k)*a(x;h;n;k)

El caso planteado corresponde a lo que recibe el nombre de seguros pagaderos en caso de muerte de riesgo diferido y plazo limitado. Se analiza este caso porque se trata del caso general. Cabe mencionar que el riesgo puede ser también inmediato mientras que el plazo de la cobertura puede ser también indefinido; es decir, por toda la vida. En consecuencia, en este tipo de seguro hay cuatro combinaciones posibles.

A fin de poder resolver la prima pura única planteada, es necesario realizar algún supuesto acerca de la distribución de sus componentes. Conforme lo expuesto al inicio del presente trabajo, las distribuciones uniformes pueden aplicarse a:

El número de fallecidos en el año

El capital diferido de vida

Se detallan los resultados obtenidos bajo cada una de las hipótesis.

Aplicación de la hipótesis D.U.F.

A(x;h;n;k)=A(x;h;n)* i/j(k)

Aplicando la hipótesis D.U.E.

A(x;h;n;k) = [1+f(k)*(k-1)/2k]*[E(x;h) - E(x;h+n)] - f(k)*a(x;h;n)

En el caso de primas correspondientes a los seguros de muerte se verifica que D.U.E. < D.U.F.

En el Anexo III se presenta un ejemplo numérico comparativo.

Page 170: 8 Libros Tecnologia 2010

3. USO DE PLANILLAS DE CÁLCULO

El avance de las herramientas tecnológicas permite efectuar los cálculos de las coberturas desarrolladas en el presente trabajo a través del uso de los valores de conmutación fraccionarios.

Para la hipótesis D.U.F. se parte de la cantidad de fallecidos -d(x)- , se establece el número de fallecidos en cada fracción de año y a partir de éstos, se calculan los sobrevivientes a las distintas edades fraccionarias – l(x+s/k) -. Luego se calculan los valores de conmutación de la forma habitual, empleando la tasa fraccionaria correspondiente.

En el caso de la hipótesis D.U.E., ésta se aplica directamente sobre el valor de conmutación D(x) y a partir del mismo, aplicando las relaciones funcionales correspondientes, se calculan las restantes funciones.

Los ejemplos de los Anexos se han desarrollado aplicando los criterios previamente mencionados

REFERENCIAS BIBLIOGRÁFICAS

Bowers; Gerber; Hichman; Jones; Nesbitt (1997): Actuarial Mathematics. The Society of Actuaries.

González Galé, J. (1968): Elementos de Cálculo Actuarial. Buenos Aires, Argentina: Ediciones Macchi.

Jordan, C. W. (1975): Life Contingencies. The Society of Actuaries.

Levi, E. (1964): Curso de Matemática Financiera y Actuarial – Volumen I y II –. Barcelona, España: Bosch Casa Editorial.

Nieto de Alba, U. – Asensio, J. V. (1993): Matemática Actuarial. Fundación Mapfre Estudios.

Page 171: 8 Libros Tecnologia 2010

ANEXO I

Probabilidades de supervivencia y fallecimiento trimestrales entre las edades enteras 45 y 46 bajo las hipótesis D.U.F. y D.U.E.4

Probabilidades de supervivencia p(45;s/4)

0,99400,99500,99600,99700,99800,99901,00001,0010

D.U.F. 1,0000 0,9989 0,9977 0,9966

D.U.E. 1,0000 0,9990 0,9980 0,9968

45,00 45,25 45,50 45,75

Probabilidades de fallecimiento q(45;s/4;1/4)

0,0000000

0,0002000

0,0004000

0,0006000

0,0008000

0,0010000

0,0012000

0,0014000

D.U.F. 0,0011375 0,0011375 0,0011375 0,0011375

D.U.E. 0,0009612 0,0010773 0,0011955 0,0013160

45,00 45,25 45,50 45,75

4 Bases Técnicas: Commissioners Standard Ordinary 1980 al 4% efectivo anual – sexo masculino

Page 172: 8 Libros Tecnologia 2010

ANEXO II

Primas puras únicas de seguro de vida de capitales múltiples diferido 10 años y por un plazo de 20 años con pago de $1/4 al inicio de cada trimestre, para distintas edades bajo las hipótesis D.U.F. y D.U.E.5

Seguro de vida de capitales múltiples a(x;10;20;4)

0,0000

2,0000

4,0000

6,0000

8,0000

10,0000

DUF 8,5485 8,1400 7,5476 6,7196 5,6405 4,3754 3,0579 1,8762

DUE 8,5500 8,1417 7,5495 6,7218 5,6430 4,3780 3,0603 1,8781

35 40 45 50 55 60 65 70

5 Bases Técnicas: Commissioners Standard Ordinary 1980 al 4% efectivo anual – sexo masculino

Page 173: 8 Libros Tecnologia 2010

ANEXO III

Primas puras únicas de seguro de muerte diferido 10 años y por un plazo de 20 años para $1.000 de capital, pagadero al fin del trimestre de ocurrido el fallecimiento, para distintas edades bajo las hipótesis D.U.F. y D.U.E.6

Seguro de muerte por $1.000 A(x;10;20;4)

0

50

100

150

200

250

300

350

DUE 83,74 121,93 173,00 234,14 292,38 328,80 325,91 279,28

DUF 83,80 122,00 173,08 234,23 292,48 328,90 326,00 279,36

35 40 45 50 55 60 65 70

6 Bases Técnicas: Commissioners Standard Ordinary 1980 al 4% efectivo anual – sexo masculino

Page 174: 8 Libros Tecnologia 2010
Page 175: 8 Libros Tecnologia 2010

LA MATEMÁTICA EN EL ARTE Miguel Ángel Nastri

Oscar Sardella 1. MAURITS ESCHER

Los movimientos en el plano se hacen arte en los frisos y sobre todo en los mosaicos que rellenan el plano. Es imposible no mencionar al artista holandés Maurits Escher.

La obra de Escher es mundialmente conocida y aparece en multitud de lugares desde remeras hasta portadas de libros científicos. Gran cantidad de gente conoce sus grabados y litografías de Escher aunque muchos no podrían señalar quien es el autor.

Nació en Holanda en 1898. Intentó estudiar arquitectura, por influencia materna, pero abandonó para estudiar artes.

Su obra generó un interés muy grande por parte de matemáticos y físicos.

La simetría, la perspectiva, la continuidad y el infinito constituyeron su mayor preocupación y aunque la crítica de arte no lo trataba bien continuó trabajando estos temas que tanto le obsesionaban.

Estos temas son:

-La estructura del espacio.

-La estructura de la superficie (partición de la misma).

-Proyección del espacio tridimensional en el plano.

Escher entró de lleno en el arte matemático y escribió con frecuencia que se sentía más próximo a los matemáticos que a sus colegas artistas.

A pesar de ello, Escher no poseía estudios matemáticos extensivos ni completos.

La parte fundamental de su obra la constituye la división regular del plano que forma parte, de alguna manera, de la mayoría de sus obras.

Escher ha logrado incorporar muchas de sus divisiones del plano en composiciones memorables.

La división regular del plano en figuras de pájaros, peces, reptiles y figuras humanas como en un rompecabezas.

Page 176: 8 Libros Tecnologia 2010

La división regular del plano en figuras congruentes que evoquen en el observador una asociación con un objeto natural familiar fue uno de los problemas que lo apasionaron.

Una de estas creaciones, los teselados, constituyen un buen punto de partida para la introducción y aplicación de los movimientos del plano.

Escher fue un artista que jugó con la arquitectura, la perspectiva y los espacios imposibles, así como también trató de representar en sus dibujos lo ilimitado y lo infinito.

Las esferas que talló en marfil y madera cubiertas de dibujos de animales y seres humanos, sirven para mostrar lo que no tiene límite, pero no son infinitas.

2. FIGURAS IMPOSIBLES

Se altera un método de representación para mostrar algo que está en el plano, pero que no puede representarse en el espacio.

Existen muchos autores que crean estas figuras, por ejemplo, el Partenón de Bruno Ernst.

El análisis en una clase de estas figuras permite a los estudiantes:

-Diferenciar el plano del espacio.

-Clarificar el método de representación utilizado.

-Saber expresar claramente sus ideas.

El artista Escher ha sabido difundir las figuras imposibles.

3. ANALICEMOS ALGUNAS OBRAS

3.1 Figuras imposibles

3.1.1 “Otro mundo” (1947)

Aquí se juega con la ambigüedad del punto de vista. El plano posterior puede interpretarse como muro, suelo o techo, según la pared lateral que adoptemos como referencia.

Page 177: 8 Libros Tecnologia 2010

El paisaje lunar rodeado de estrellas, galaxias y cometas aumenta la realidad de la escena.

(Se proyectarán otras obras con el objeto de determinar su imposibilidad)

3.1.2 “Valvadere” (1958)

Esta es sin duda una de las obras más clásicas de Escher. En ella aparecen dos elementos dignos de mención: por un lado, como se puede comprobar en el detalle que hemos ampliado, aparece un plano con el dibujo de un cubo cuyas aristas "críticas" (¿están en primer o en segundo plano?) aparecen marcadas. El hombre sentado en el banco muestra un ejemplo de un cubo imposible (cuyas aristas están "a la vez delante y detrás"). Y como dice Escher, el hombre "contempla reflexivo el objeto imposible sin darse cuenta de que el belvedere a sus espaldas es un ejemplo más de tal objeto imposible". Ciertamente si uno observa las columnas se da cuenta de que sufren el mismo problema que las aristas del cubo (y si no, ¿cómo podría la escalera apoyarse en el interior para acceder?

3.1.3 “Ascendiendo y descendiendo” (Litografía, 1950)

Esta litografía deriva de una figura imposible que apareció por primera vez en el artículo: “Objetos imposibles. Un tipo especial de ilusión óptica”, que L. S. Penrose y su hijo, el matemático Roger Penrose, presentaron en febrero de 1958.

Los monjes de una secta desconocida ejecutan el ritual diario de marchar perpetuamente alrededor de la escalera imposible en el tejado del monasterio, los de afuera subiendo y los de adentro descendiendo.

Comenta Escher: “Ambas direcciones, aunque no sin significado, son igualmente inútiles. Dos individuos refractarios niegan participar en este ejercicio espiritual”. Piensan que son más listos que sus compañeros, pero tarde o temprano admitirán que su inconformismo es un error”.

3.1.4 “Cascada” (Litografía, 1961)

Es uno de sus dibujos más conocido. Según Escher es una múltiple aplicación del triángulo imposible de Penrose. Efectivamente si uno observa la parte superior de la cascada, los dos primeros tramos del recorrido del agua en zig-zag forman con las columnas que separan los dos "niveles" un triángulo imposible. Más claro: el agua sufre una

Page 178: 8 Libros Tecnologia 2010

considerable caída a causa de la cascada pero, entre el inicio y el final de ésta, hace un recorrido que las leyes de la perspectiva nos muestran como claramente horizontal, lo cual por supuesto es incompatible con la caída antes mencionada.

3.2 Esfera

3.2.1 “Mano con globo refractante” (Litografía, 1935)

En esta litografía se aprovecha la propiedad de los espejos esféricos para representar lo que el filósofo Bacon Perry gustaba en llamar “el predicamento geocéntrico”. “Todo lo que una persona puede conocer acerca del mundo se deriva de aquello que entra en su cerebro a través de los órganos sensoriales, hay un sentido en que uno no experimenta nada excepto aquello que está dentro del círculo de sus propias sensaciones e ideas”.

Partiendo de esta fenomenología construye lo que cree que es el mundo externo.

En el grabado se ve a Escher contemplando su imagen reflejada en la esfera. El cristal refleja el entorno y lo comprime en un círculo perfecto. Mueva o gire la cabeza el punto medio entre sus ojos quedará exactamente en el centro del círculo.

No puede salir de ese punto central. Dice Escher “el ego permanece siendo el centro inamovible de su mundo”.

Las particiones para cubrir la esfera requieren modificaciones respecto a las que teselan el plano.

3.3 Topología

3.3.1 “Nudos” (Grabado en madera, 1965)

La fascinación que siente Escher por los temas topológicos se expresa en muchos de sus grabados. En el grabado en madera “Nudos”, se observan las dos imágenes del nudo. Uno de ellos está hecho con dos largas cintas planas que se cortan en ángulo recto, dando un giro a la tira doble antes de unirla a sí misma. Es una sola banda de una cara que da dos vueltas alrededor del nudo, cortándose a sí misma o consiste en dos bandas de Mobius.

Page 179: 8 Libros Tecnologia 2010

3.4 Poincare-Geometrías no euclidianas

3.4.1 “Cielo e infierno” (Grabado en madera, 1960)

Variación de la "Simetría nº 45" con la particularidad de que los elementos van reduciendo su tamaño conforme se aproximan al borde del círculo, que constituye así un límite inalcanzable. Las propiedades de este espacio plano nos introducen en las geometrías no-euclídeas de tipo hiperbólico.

Se proyectarán otras obras de este tipo.

4.TESELADOS

Los teselados son los diseños de figuras geométricas que por sí mismas o en combinación cubren una superficie plana sin dejar huecos ni superponerse, o sea, el cubrimiento del plano con figuras yuxtapuestas.

4.1 Generalidades

Las antiguas civilizaciones utilizaban teselados para la construcción de casas y templos cerca del año 4000 a.C. En ese tiempo los sumerios realizaban decoraciones con mosaicos que formaban modelos geométricos. El material usado era arcilla cocida que coloreaban y esmaltaban.

Posteriormente otros grupos demostraron maestría en este tipo de trabajo. Ellos fueron los persas, los moros y los musulmanes.

El grupo matemático de los pitagóricos analizaron tales construcciones y probablemente éstas los hayan conducido al famoso teorema que establece que la suma de los ángulos interiores es igual a un ángulo llano.

La palabra teselado proviene de “tessellae”. Así llamaban los romanos a las construcciones y pavimentos de su ciudad.

4.2 Tipos de teselados

Los teselados pueden ser regulares o irregulares. Dentro de los regulares existen los semirregulares.

Page 180: 8 Libros Tecnologia 2010

Los regulares se logran a partir de la repetición y traslación de polígonos regulares.

Los semirregulares se forman con la combinación de dos o más polígonos regulares pero distribuidos de modo tal que en todos los vértices asparezcan los mismos polígonos y en el mismo orden.

Ver las proyecciones.

Por último, los irregulares, que se forman gracias a la deformación de los lados de un polígono regular.

Se proyectarán teselados ideados por Escher.

REFERENCIAS BIBLIOGRÁFICAS

Coxeter H.S.M., Emmer M., Penrose R., Fouber M. (1987): Art and Science. Ed. Nord Holland.

Schattschneider, D. y Wallker, W. (1992): M. C. Escher Calidociclos . Ed. Benedikt Taschen.

Ernest, Bruno (1989): El espejo mágico de M. C. Escher. Ed. Benedikt Taschen.

Page 181: 8 Libros Tecnologia 2010

CAMINATA VIRTUAL POR UNA FUNCIÓN DE PRODUCCIÓN ASISTIDO POR ORDENADOR

Raúl Rodríguez Vidal

INTRODUCCIÓN

Como destacamos en anteriores intervenciones de este seminario de tecnología, la observación en 3D de superficies, es una ayuda didáctica que incrementa paulatinamente su potencial aplicación, a medida que los hardwares y softwares disponibles mejoran sus recursos y simplifican su utilización. En esta ocasión presentamos una función de producción clásica con dos insumos (capital y trabajo) y con restricción de su grado de homogeneidad (n=1). En estas condiciones tendríamos x=f (K,L)=A.KαLα (1) donde A y α son constantes, K el insumo capital, L el insumo trabajo y x representa la cantidad de producto.

Se puede demostrar fácilmente que la (1) es una función homogénea de grado 1, es decir, lineal. Por lo tanto si los insumos se incrementan λ veces, las unidades producidas también se incrementan λ veces.

1. VISTA A VUELO DE PÁJARO DE LA SUPERFICIE

Efectuaremos una visualización de la (1) tomando A=200 y haciendo (0<K<20; 0<L<20). La inserción de nuevos comandos como el “Manipulate” permite visualizar instantáneamente las superficies de producción que se obtienen al ir cambiando los valores de las elasticidades parciales del producto respecto a K y L. En este caso el deslizador adjunto al cuadro de dibujo permite variar las elasticidades entre 0 y 1. Asignando a α=n el valor 0 (elasticidad del producto respecto al capital nula) resulta (2) x= 200.K0L= 200.L (Ver figura 2.Plano paralelo al eje de los capitales).

La función de producción (2) es lineal en L y además la cantidad producida no depende del factor de capital, sino exclusivamente de la cantidad de trabajo. La visualización nos permite observar que la pendiente en el sentido de L es constante (superficie plana) y además por lectura directa en las escalas del dibujo pendiente= 4000/20 = 200 valor que coincide con la productividad marginal respecto al trabajo, o sea por cada unidad de trabajo agregado, el producto se incrementa 200 unidades. Además debe notarse que la pendiente de la superficie en el sentido de K es nula (curvas de nivel rectilíneas y paralelas el eje de la K).

Page 182: 8 Libros Tecnologia 2010

Lo que nos indica que la productividad marginal del capital es nula, o sea, el agregado de una unidad más de capital, no origina ningún incremento en el producto.

Asignando ahora a α=n el valor 1 (elasticidad del producto respecto al trabajo nula) resulta (3) x= 200.K.L= 200.K (Ver figura 3. Plano paralelo al eje del trabajo.)

La función de producción (3) es lineal en K y la cantidad producida no depende del stock de trabajo, sino exclusivamente de la cantidad de capital. La visualización nos permite observar que la pendiente en el sentido de K es constante (superficie plana) y también por lectura directa en las escalas pendiente = 4000/20=200 valor que coincide con la productividad marginal respecto al capital, o sea, por cada unidad de capital agregada, el producto se incrementa 200 unidades. La pendiente de la superficie de producción en el sentido L es nula (curvas de nivel rectilíneas y paralelas al eje de las L) lo cual nos indica que la productividad marginal del trabajo es nula, o sea el agregado de una unidad más de trabajo, no origina ningún incremento en el producto.

Para valores intermedios de α=n comprendidos entre 0<n<1 se visualiza que la superficie de producción deja de ser plana y las derivadas parciales del producto respecto al capital (K) y al trabajo (L) van cambiando de punto a punto. Por ejemplo con α=n=0.5 tenemos

(4) x=200.K05L0.5

(Ver figuras 1, 4 y 5. Distintas vistas de la función (4)).

Productividades marginales respecto K y L:

(5) 5.05.0.100 LKKx −=

∂∂

; (6) 5.05.0.100 −=∂∂ LKLx

(5´) KL

Kx 100=

∂∂

; (6´) LK

Lx .100=

∂∂

Las expresiones (5´) y (6´) representan las productividades marginales del K y del L respectivamente y son funciones de K y L. Sin embargo se observa que si las variaciones de K y L son proporcionales (7) L/K=cte o (8) K/L=cte y por lo tanto en este caso resultan (9)

Kx

∂∂ = cte; (10)

Lx

∂∂ =cte

Page 183: 8 Libros Tecnologia 2010

O sea para variaciones proporcionales de K y L las productividades marginales se mantienen constantes aunque cambie el punto considerado. Más aun si se considera que K es igual a L (bisectriz del plano coordenado K, L) resulta

(11) Kx

∂∂ =

Lx

∂∂ =100=cte

Para desplazamientos según la bisectriz (12) (K=L) las productividades marginales de K y L son constantes e iguales. No debe perderse de vista la simetría de la superficie ya que α=0.5 y1-α=0.5 resulta ser simétrica respecto al plano K=L.

Consideramos ahora que n=0,2 y 1-n=0.8

(13) x=200.K0.2L0.8

(Ver figuras 6 y 7)

(14) Kx

∂∂

= 40.Κ−0.8 L0.8 = 40.5/4

KL

(15) Lx

∂∂ =160.Κ0.2 L−0.2 = 160.

5/1

LK

De nuevo se verifica que, si las variaciones de L y K son proporcionales, las productividades marginales de K y de L son constantes, sin embargo aunque ahora se verifique que K=L, las productividades marginales de K y de L son distintas. La observación visual indica que la superficie ha perdido su simetría con respecto al plano K=L. (Figura 6).

1.1. Visualización de las curvas isocuantas

Para esta observación consideramos las funciones de producción (4) y (13).

(4) x=200.Κ0.5 L0.5

(13) x=200.Κ0.2 L0.8 y ploteamos las isocuantas para producciones de valores 1000, 1500,

2000, 2500 y 3000 unidades.

Se visualizan las características típicas de las isocuantas a saber: convexas hacia el origen o lo que es equivalente la pendiente absoluta

Page 184: 8 Libros Tecnologia 2010

disminuye para abcisas crecientes, no se cortan entre sí, la cota respectiva (producto) crece a medida que nos alejamos del origen, donde las curvas se acercan entre sí, la pendiente de la superficie aumenta (isocuantas densificadas) y donde las curvas se alejan entre sí la pendiente disminuye (isocuantas rarificadas). La tasa marginal de sustitución viene medida por la pendiente de cada curva en el punto considerado. Para la función (4) las isocuantas son simétricas respecto a la bisectriz del cuadrante y para la (13) resultan asimétricas.(Ver figuras 10 y 11 con ploteo de las isocuantas).

1.2. Campo de gradientes

Los softwares actualizados permiten visualizar de forma relativamente sencilla el campo de gradientes de un campo escalar. En nuestro caso la imagen física del campo de gradientes nos da una idea clara de cómo se distribuyen las pendientes de la superficie de producción. Recordemos que las pendientes medidas en las direcciones de los ejes nos miden los valores de las productividades marginales y el módulo de cada vector gradiente mide una productividad compuesta indicando la dirección de mayor crecimiento de la función producto (valor extremo de la derivada direccional).

En nuestro caso las funciones (5), (6), (14) y (15) miden las componentes del gradiente para las funciones de producción dadas en (4) y (13). La longitud de cada flecha es proporcional al módulo del vector gradiente y la punta y cola de flecha definen la dirección y sentido del máximo crecimiento de la función. Si se superpone la gráfica del campo de gradientes con la de curvas de nivel en todos los casos los vectores gradiente resultan perpendiculares a las rectas tangentes a las curvas de nivel de cada punto.

Además las proyecciones del campo de gradiente sobre los ejes coordenados miden las productividades marginales del capital (K) y del trabajo (L), aplicando las escalas correspondientes. (Ver figuras 8 y 9 con el ploteo del campo de gradientes de (4) y (13)).

2.3. Productividades marginales

Como se vió más arriba estas productividades vienen dadas por las funciones (5),(6),(14) y (15) para los ejemplos propuestos. Desde el punto

Page 185: 8 Libros Tecnologia 2010

de vista gráfico, las productividades pueden obtenerse cortando la superficie de producción con planos K=cte o L=cte, obteniendo las curvas respectivas y determinando las pendientes de las mismas en cada punto. Si los planos de corte son oblícuos respecto a los planos coordenados, las pendientes de las curvas intersección miden las derivadas direccionales en cada punto y en cada dirección, las que pueden interpretarse como productividades marginales compuestas de K y L, tales que las sumas vectoriales de ambos incrementos es de módulo unitario. En las figuras 12 y 13 se representan las superficies de la productividad marginal del capital para las funciones (4) y (13). En las figuras 14 y 15 la intersección de (4) con los planos K=10 y L=10. En las figuras 16 y 17 la intersección de la función (4) con el plano K=L. Y en las figuras 18 y 19 la intersección de (4) con los planos 2K=L y 2L=K.

CONCLUSIONES

Es necesario recuperar los contenidos geométricos casi abandonados hace ya muchos años. La idea del espacio, el pensamiento geométrico y el análisis visual de los problemas, mejoran la compresión de los temas y sus aplicaciones.

Las imágenes geométricas visualizadas en la pantalla, funcionan como un primer paso para que el alumno acceda al concepto. La vía sensorial visual permite captar los conceptos y relaciones que orientan la atención del sujeto.

El uso de un programa adecuado origina un cambio de actitud hacia la innovación educativa y permite al alumno participar de su propio aprendizaje, explorando e investigando. Además le da sus propios tiempos para realizar ejercitación que refuerce el proceso de aplicación y retroalimentación, y pueda comunicar información de manera visual y expeditiva.

A su vez le permite al educador cambiar su actitud, a través del conocimiento de nuevas tecnologías y analizar las ventajas e inconvenientes de su aplicación. También le permite organizar los contenidos de la asignatura, relacionar los conceptos y administrar la ejercitación, para que el alumno pueda trabajar con situaciones complejas y reales, desarrollando una aproximación más intuitiva y empírica.

Page 186: 8 Libros Tecnologia 2010

Figura 1. Visualización en 3D de la función de producción (4) con dos insumos (capital y trabajo).(n=0.5)

Figura 2. Visualización en 3D de la función de producción (2), n=0.

Page 187: 8 Libros Tecnologia 2010

Figura 3. Visualización de la función de producción (3), n=1.

Figura 4. Vista lateral de la función de producción (4), n=0,5.

Page 188: 8 Libros Tecnologia 2010

Figura 5. Vista superior de la función de producción (4), n=0,5.

Figura 6. Visualización de la función de producción (13), n=0,2.

Page 189: 8 Libros Tecnologia 2010

Figura 7. Vista inferior de la función de producción (13), n=0.2

Figura 8. Campo de gradientes de la función (4), n=0,5.

0 5 10 15 200

5

10

15

20

Page 190: 8 Libros Tecnologia 2010

Figura 9. Campo de gradientes de la función (13), n=0,2.

0 5 10 15 200

5

10

15

20

Figura 10. Curvas de nivel (isocuantas) de la función (4), n=0,5.

0 5 10 15 200

5

10

15

20

Page 191: 8 Libros Tecnologia 2010

Figura 11. Curvas de nivel (isocuantas) de la función (13), n=0,2.

0 5 10 15 200

5

10

15

20

Figura 12. Superficie de productividad marginal del capital para la función (4), n=0,5.

Page 192: 8 Libros Tecnologia 2010

Figura 13. Superficie de productividad marginal del capital para la función (13), n=0,2.

Figura 14. Intersección de la función de producción (4) con un plano de capital constante igual a 10 unidades.(n=0,5).

Page 193: 8 Libros Tecnologia 2010

Figura 15. Intersección de la función de producción (4) con un plano de trabajo constante igual a 10 unidades. (n=0,5).

Figura 16. Intersección de la función de producción (4) con un plano trabajo igual al capital (K =L), para cualquier nivel de

producción.(n=0,5).Industria igualitaria.

Page 194: 8 Libros Tecnologia 2010

Figura 17. Otra visual de la función de producción (4) intersectada con el plano K =L. Industria igualitaria en insumos.

Figura 18. Visual de la función de producción (4), intersectada con un plano 2K=L, para el caso de una industria mano de obra intensiva (n=0,5)

o sea el trabajo duplica al capital.

Page 195: 8 Libros Tecnologia 2010

Figura 19. Visual de la función de producción (4), intersectada con un plano 2 L = K, para una industria capital intensiva(n=0.5) o sea el capital

duplica al trabajo.

Page 196: 8 Libros Tecnologia 2010
Page 197: 8 Libros Tecnologia 2010

CREATIVIDAD E INNOVACIÓN. ALGUNAS REFLEXIONES PARA CON LAS ORGANIZACIONES

Gustavo Norberto Tapia

1. CREATIVIDAD E INNOVACIÓN EN LAS ORGANIZACIONES

La diferencia entre innovar y ser creativo es la posibilidad de convertir visiones, sueños, ideales, utopías, mitos y fantasías en realidad. El ser creativo se queda en la imaginación, a su turno, el innovador convierte en realidad sus cambios, sus sueños e ideales nuevos. Se podría decir que las teorías reflejan la creatividad y la práctica es la innovación. Para convertir los sueños en realidad es necesario llevar las ideas al terreno.

Innovar es crear algo nuevo pero que a la vez tenga características especiales y diferentes. Para lograr la innovación se requiere de un proceso, el cual debe darse a partir de la observación del medio donde nos movemos, de su análisis y de la creatividad que se tenga para proponer ideas novedosas. Aquellos quienes innovan, sin importar si son personas o compañías, deben dedicar tiempo, esfuerzo y sobretodo recursos, para poder obtener los resultados esperados en cuanto a diseños, productos, servicios o ideologías.

En primer lugar debe haber deseo de cambio y lo segundo una aplicación real en la organización. Este proceso complejo es una secuencia de muerte y renacimiento, de destrucción y de construcción. Como en la vida de las personas, en las organizaciones los tiempos de innovar van a depender de la evolución histórica de la compañía y de su posición en el contexto, como también de sus planes estratégicos. La innovación es un progreso porque agrega valor, reflejando los costos-beneficios. La innovación y la creatividad deben ser inseparables. La una necesita de la otra porque separadas no funcionan.

1.1 Etapas de la creatividad. Método de Poincaré

Las etapas a través de las que se desarrolla el proceso de producción de ideas son:

Preparación: atiende tanto a la selección e identificación del problema como a la recopilación de documentación e información relacionada con el problema.

Page 198: 8 Libros Tecnologia 2010

Trabajo de las ideas recopiladas: donde se manipulan y elaboran en la mente todos los materiales previamente recogidos. Es como una especie de digestión mental del material en la cabeza.

Incubación: es el momento de la aparición de los procesos inconscientes, los cuales, un tanto al azar, conducen a la solución. Aquí hay que buscar una cierta relajación mental, reduciendo el funcionamiento racional de la inteligencia y enriqueciéndose con distracciones estimulantes de la imaginación y las emociones, como escuchar música o ir al teatro... hay que dejar que el inconsciente digiera el problema mientras vosotros descansáis.

Iluminación o inspiración: donde surge la idea. “La idea surgirá de cualquier parte. Se les ocurrirá cuando menos lo esperen. Ésta es la forma en que aparecen las ideas después de que uno ha dejado de esforzarse por encontrarlas, y ha cubierto un período de descanso y distracción tras la búsqueda”.

Verificación: donde el creador comprueba y formula su creación en términos ordenados dándole su configuración final y desarrollando la idea para su utilización práctica. El creador somete su creación a las leyes lógicas para comprobar su validez y que cumpla los objetivos que había establecido. Hay que comentar la idea y someterla a todo tipo de pruebas de validación, comentarios y juicios críticos de personas competentes en la materia. Al final de esta fase puede darse que el producto obtenido sea válido. O que no sea válido, que parezca una solución pero que no lo sea. En este caso se considerará como una fase intermedia de incubación con reintegración al proceso. Algunos autores creen que existe una última fase de difusión y socialización de la creación.

1.2 Condiciones de la Creatividad

La creatividad puede potenciar la eficiencia de las técnicas que aplican las organizaciones.

a) La creatividad como fuente de problemas,

b) Como un evento integrador,

c) Como un fenómeno múltiple,

d) Como un evento de aprendizaje.

Page 199: 8 Libros Tecnologia 2010

Es un hecho ampliamente establecido que la creatividad es una variable que puede ser identificada como un proceso, como un producto, o como una característica de la personalidad.

1) Condición Primera: Crear problemas: la capacidad o habilidad de plantear, identificar o proponer problemas es condición necesaria de la creatividad. Este enfoque no aparece, al menos explícitamente, en las herramientas de ayuda para incrementar la creatividad. La mayoría de las técnicas están centradas en proponer estrategias para resolver problemas, no para plantearlos. Esto condiciona a ser creativos en las respuestas, es decir, en la parte final, no en el origen. Lo original tiene preguntas originales: se plantean problemas en donde nadie los había planteado. Podría afirmarse que hay preguntas que no son originales y que obtuvieron respuestas originales. Es posible que la pregunta general no sea original, pero la forma de redefinirla, de enfocarla, de replantearla es lo que puede permitir la respuesta nueva.

2) Condición Segunda: Creatividad es Integral: la creatividad es un proceso, una característica de la personalidad y un producto. Las personas que hacen cosas creativas (productos) lo hicieron con determinados procedimientos (procesos) y actuaron de determinada manera (características de personalidad). El problema aquí es que al parecer no hay elementos comunes en todos los creativos. Sin embargo sí hay algunos elementos comunes como la inteligencia. La fluidez, flexibilidad, elaboración y originalidad, son también elementos esenciales. También están presentes la incubación, la iluminación, la evaluación. Las técnicas deben fortalecer integralmente la creatividad. En otras palabras, al pretender desarrollar la creatividad es necesario considerar que ésta, la creatividad, no es un elemento aislado, sino que hábitos, creencias, destrezas y el entorno social, entre muchos otros, están interviniendo en lo que se denomina creatividad. Cada tarea dirigida hacia el desarrollo de la creatividad será una tarea que apunte a un hábito, alguna habilidad, alguna forma de hacer las cosas, alguna forma de concluirlas.

3) Condición Tercera: Creatividad Múltiple: se es creativo en donde se puede ser creativo. Esto puede sonar obvio pero muchas veces es descuidado. Las formas de enfocar la atención son diferentes. El propósito principal es indicar la necesidad de poner especial atención a las diferencias individuales y a las necesidades personales al momento de implementar las estrategias de desarrollo de la creatividad. Otro elemento fundamental es el énfasis en las áreas fuertes o en las habilidades

Page 200: 8 Libros Tecnologia 2010

naturales de la persona, incorporando en las estrategias procedimientos que potencien estas habilidades a partir del conocimiento de los procesos que las regulan.

4) Condición Cuarta: Aproximaciones Sucesivas: los organismos tienden a incrementar las conductas que les son premiadas, a no hacer conductas para las cuales no reciben premios y a presentar conductas de evitación de lo doloroso. Incorporar esto a un programa de desarrollo de la creatividad significaría que los programas estarían hechos bajo el principio de aproximaciones sucesivas, en donde se afirma que se avanza a pequeños pasos y cada paso es reforzado (premiado) evitando dar el paso siguiente sin tener éxito constante en el paso previo.

1.4 Distinciones entre innovación y creatividad

La innovación cambia la realidad. La creatividad cambia la

percepción.

La innovación requiere acción. La percepción requiere del

pensar.

Es un desafío de equipo. Es un desafío individual.

Es un proceso continuo. Es un proceso discontinuo.

Toma un tiempo largo. Toma un instante.

Entrega algo nuevo al sistema. Imagina un sistema

nuevo.

Su efecto se puede medir. Su efecto no se puede

medir.

Requiere administración del proyecto. Requiere ideas.

En tiempos de masificación de productos y servicios, el capital humano de la organización es clave para el avance. La calidad técnica tiene que formar parte de todos y cada uno de los miembros de la organización. La

Page 201: 8 Libros Tecnologia 2010

mejor manera de desarrollar la calidad es empezar por aumentar las actividades creativas, dado que éstas son el origen de toda actividad personal innovadora. Las organizaciones a menudo detectan que hay una gran diferencia entre lo que somos capaces de hacer y lo que en realidad hacemos.

La creatividad constituye una ayuda para la solución de problemas de una organización o un equipo de trabajo. Aporta nuevas formas para analizar la naturaleza de un problema y para generar una amplia variedad de opciones para su solución.

En virtud del cambio instaurado en el proceso podemos distinguir entre: Innovación incremental: pequeños cambios dirigidos a incrementar la funcionalidad y las prestaciones de la empresa, pero que si se suceden de forma acumulativa pueden constituir una base importante de progreso, e Innovación radical: implica una ruptura con lo ya establecido, nuevos productos o procesos que no pueden entenderse como una evolución natural de los ya existentes.

El proceso de innovación es un proceso complejo que integra varias actividades:

Invención o generación de ideas: investigación básica;

Diseño y desarrollo: investigación aplicada;

Preparación para la producción: ingeniería y producción

Marketing, ventas y distribución: comercialización.

Una de las teorías más vigentes en materia de innovación es la manifestada por Clayton Christensen (2004), conocida como innovación disruptiva, sostiene que quienes ingresan a un mercado armados con soluciones relativamente simples y directas, pueden desplazar a jugadores poderosos. Sugiere que las empresas establecidas en el mercado suelen triunfar cuando la batalla se libra en el terreno de la innovación progresiva: la que brinda mejores soluciones a los clientes líderes. En cambio, las firmas recién llegadas al mercado suelen tener éxito cuando la batalla está relacionada con la innovación disruptiva: la que ofrece soluciones simples, convenientes y de bajo costo, que se afianzan entre aquellos clientes que los competidores existentes no atienden o no quieren atender.

Page 202: 8 Libros Tecnologia 2010

1.5 Innovación individual, grupal y organizacional

Innovación individual: para centrarnos en la innovación, nos referiremos a los roles individuales de trabajo, a diferencia de la creatividad, en que enfatizaremos procesos personales que participan en ella. Así, en la innovación, la originalidad, tan tomada en cuenta en la creatividad, se concibe de otra forma al referirnos a las variaciones en un rol. Un individuo puede adoptar e introducir modificaciones en un rol, lo cual es una innovación, no obstante provenir éstas de un puesto de trabajo que desempeñó con anterioridad y que por tanto no son originales. En segundo lugar, el rol debe ser concebido como un conjunto de reglas, pero no con una pauta estrecha, de modo que existen suficientes posibilidades de flexibilizar el ejercicio del rol.

La innovación del rol será definida aquí como cualquier mejoría, tanto en cantidad como en calidad, de la ejecución de un rol por un individuo, así como mejorías en las relaciones de dicho rol con otros en la organización laboral. Farr (1992), desarrolló el siguiente esquema:

a) Necesidad de cambio percibida

b) Auto-eficacia

c) Beneficios percibidos a partir del cambio.

d) Conocimientos técnicos. Generación de ideas nuevas y útiles

Innovación de Rol

Page 203: 8 Libros Tecnologia 2010

a) La necesidad de cambio percibida se refiere a los cambios que el individuo percibe como necesarios en el rol.

b) La auto eficacia se refiere a la creencia del individuo acerca de su propia eficacia para la implementación de los cambios.

c) La percepción del individuo se refiere a su percepción acerca de los resultados positivos del cambio.

d) La habilidad del individuo para generar ideas nuevas y útiles. Esta habilidad puede descansar en conocimientos anteriores sobre procesos o procedimientos existentes, o puede incluir conocimientos para crear tales procedimientos u objetos, en caso de que no existan otras alternativas apropiadas.

Innovación y Creatividad en grupos: los grupos juegan un papel crucial en el proceso innovador. Una innovación puede ser inventada por un grupo de investigación y desarrollo (I+D), adoptada por un grupo de dirección y modificada y utilizada por un grupo de trabajo. La innovación en grupos ha recibido menos atención que la individual y la organizacional. La innovación de grupo es el surgimiento, importación o imposición de nuevas ideas, las cuales se busca poner en práctica por el grupo, a través de discusiones interpersonales y sucesivos remodelamientos de la propuesta original, a través del tiempo. Se observa que la idea nueva para el grupo puede ser surgida de éste (desarrollada enteramente por el grupo), puede ser importada (adoptada o adaptada por el grupo, tomada de otros), o impuesta (impuesta al grupo por la dirección del mismo o de la organización).

Cada uno de estos tipos de innovación difiere más de otros, en sus antecedentes y su proceso. Por ejemplo, cuando la innovación surge del grupo, tiene un origen creativo y sigue a través del trabajo grupal hacia la implementación y la algoritmización. La innovación importada le permite al grupo mayor libertad que la impuesta, en lo que se refiere a su implementación y su uso, y la opción de rechazarla es más viable. Claramente se ve que los tres tipos generan diferentes cuestiones empíricas.

La innovación es vista como el proceso de negociación intra-grupales y de remodelamientos de la propuesta original. Esta definición enfatiza que la innovación es un proceso mediante el cual una nueva propuesta es iniciada, implementada y absorbida dentro del grupo, en lugar de ser el

Page 204: 8 Libros Tecnologia 2010

simple resultado de estas negociaciones. Los Grupos son la célula básica de la creatividad de la organización. Las empresas que están dispuestas a hacer de la creatividad una ventaja competitiva cuidan el funcionamiento de los distintos grupos, ya sean provisorios o permanentes, que se forman dentro de la organización. Esto implica conocer la importancia de los grupos y la lógica de la dinámica de grupos. Muchas empresas se conforman con lograr resolver los conflictos que surgen cuando las personas se agrupan. Es decir, intentan lograr que al trabajar como grupo los resultados sean tan positivos como si cada persona trabajara por separado.

Innovación y creatividad organizacional: la organización educacional y la organización laboral se ocupan de la evaluación de los objetivos de las instituciones, de sus normas, estructuras, funciones y procesos. Les atañen cuestiones como el liderazgo, la comunicación y la resolución de conflictos. El desempeño organizacional es una resultante de los tres tipos de innovaciones, en sucesión conjunta, más que de cada tipo de innovación por separado. En igual sentido deben ser tratadas las diferentes combinaciones de tipos de innovación, las cuales resultan en más alto desempeño en un contexto dado. Lo que debe subrayarse es que el desempeño organizacional sería un resultado de la innovación en general, no simplemente adoptando la administrativa o la tecnológica, por separado. Son de gran importancia los grupos y equipos como ámbitos para el desarrollo de la creatividad, pues ellos forman algo así como mini-culturas dentro de las organizaciones, donde se juegan una gran cantidad de estímulos y bloqueos al fluir de ideas y acciones innovadoras.

1.6 Innovación tecnológica, social y de gestión

La innovación tecnológica comprende los cambios introducidos en los productos y en los procesos:

La innovación de producto consiste en fabricar y comercializar nuevos productos (innovación radical) o productos ya existentes mejorados (innovación gradual). La innovación de proceso corresponde a la instalación de nuevos procesos de producción que, por lo general, mejorarán la productividad, la racionalización de la fabricación y, por consiguiente, la estructura de costos.

Page 205: 8 Libros Tecnologia 2010

La innovación social intenta proponer soluciones nuevas a los problemas de desempleo sin trastocar la eficiencia de la empresa.

La innovación en gestión reúne las innovaciones en los ámbitos comerciales, financieros, organizativos, etc., que potencian la conducción para el alcance de las metas propuestas.

Como se ve en la figura siguiente, la tecnología constituye un input para el proceso de innovación del que se obtendrán como outputs productos, procesos y métodos, que nuevamente podrán ser inputs (realimentación) de un nuevo proceso de innovación.

Proceso de innovación

I+D e Innovación: La figura representa esquemáticamente la relación existente entre la innovación, la innovación tecnológica, y la I+D. Como se puede ver, la innovación tecnológica es un tipo particular de innovación en la que la tecnología juega un papel fundamental.

Page 206: 8 Libros Tecnologia 2010

Por otro lado, la investigación científica y el desarrollo tecnológico conducen normalmente a procesos de innovación pero:

-La actividad de I+D no es suficiente, porque si no llega al mercado no hay innovación. En muchos casos, los resultados de la I+D no son utilizados nunca.

-Tampoco es estrictamente necesaria. Parte de los procesos de innovación tecnológica no descansan en actividades de I+D sino en una actividad de mejora tras la observación de deficiencias y posibles soluciones. En algunos casos, eso se produce trasladando desarrollos de un dominio de uso a otro distinto.

-Una parte de la actividad de investigación científica no pretende, ni siquiera a largo plazo, generar ningún proceso de innovación (ni tecnológica ni de ningún otro tipo). Eso sucede con parte de la investigación básica o la ligada con las humanidades.

La visión que se tiene de los procesos innovadores puede facilitarse mediante el desarrollo de modelos de innovación que enmarquen la relación entre los diferentes tipos de actividades ligadas a la innovación. Se puede hablar de dos niveles diferentes:

Modelos macro de los procesos de innovación utilizados por instituciones y gobiernos para orientar los sistemas nacionales de innovación. De ello se deriva el tipo de políticas de innovación que se puede poner en marcha. El objetivo es conocer los grandes tipos de actividades y las relaciones entre ellas para determinar las medidas de apoyo necesarias.

Modelos micro adaptados a un proceso de innovación concreto para una organización. En la realidad de una determinada organización, los procesos innovadores siguen unas determinadas pautas, partiendo de la experiencia y dificultad del proceso. El objetivo es determinar los procedimientos que debería poner en marcha una empresa para incrementar el proceso innovador o para generar nuevos productos.

Debe resaltarse la dificultad que tiene el desarrollo de un modelo del proceso de innovación, pues no sigue unas pautas predefinidas. Se pueden identificar los siguientes problemas en la determinación de un modelo de innovación:

Page 207: 8 Libros Tecnologia 2010

Límites temporales difusos. En muchos casos no comienza en un momento determinado ni es fácil determinar su final (como sí sucede en el caso de un proyecto de ingeniería).

Existencia de diversas perspectivas solapadas. La innovación siempre ocurre en un contexto concreto.

Interacción desconocida entre diversas variables. Comprender las razones por las que una determinada innovación no se difunde y otra, de la misma complejidad tecnológica, sí lo hace, es desconocido.

Influencia de las personas y sus planteamientos ideológicos. Si tenemos cierta formación científico-tecnológica, podremos comprender un caso como una innovación anticipada; para otras personas puede significar un caso de ciencia ficción.

Límites geográficos difusos. Imposibilidad de aislamiento del resto del mundo, cuando el mercado se ha globalizado.

Pese a estas dificultades, pueden definirse dos modelos de innovación muy utilizados, como son el modelo lineal y el modelo de enlaces en cadena.

Modelo lineal

En este modelo se presentan ciertas deficiencias. El proceso de

innovación como una sucesión de distintas etapas. Da demasiada importancia a la I+D como desencadenante del proceso. No representa siempre a la realidad económica, ya que algunos países que destinan pocos recursos a la I+D han incrementado su participación en el intercambio de productos industrializados mediante una apropiación adecuada de los resultados de la I+D realizada por otros. Numerosas empresas innovan con éxito con relativamente pocos recursos para I+D, aunque bien integrados en la estrategia empresarial.

Page 208: 8 Libros Tecnologia 2010

Modelo de enlaces en cadena

La innovación en este modelo se considera como un conjunto de

actividades interrelacionadas y cuyos resultados son frecuentemente inciertos. A causa de esta incertidumbre no hay progresión lineal entre las actividades del proceso.

La I+D no es una fuente de invenciones sino una herramienta que se utiliza para resolver los problemas que aparecen en cualquier fase del proceso. La investigación aborda los problemas que no pueden resolverse con los conocimientos existentes, para así ampliar la base de conocimientos. La empresa dispone de una base de conocimientos a la que acude para resolver los problemas que se le plantean al innovar. Este modelo promueve una cultura de la innovación en toda la empresa. Los incentivos a la plantilla están también en función de su creatividad y su capacidad de aprender cosas nuevas.

1.7 Redes de Innovación

En la sociedad industrial, la innovación, incluyendo la mejora de los productos y procesos, ha tenido una importancia central, lo cual indica que la transformación de conocimientos nuevos en conocimiento práctico y productivo siempre ha sido un aspecto crucial. No obstante, los últimos cambios en los procesos económicos - aumento de la velocidad de las comunicaciones y mayor disposición de informaciones - ha provocado que la gestión de conocimientos haya adquirido aún mayor importancia y sea el factor central para el éxito empresarial. Pero en la sociedad de la información la gestión de conocimiento y especialmente las actividades de

Page 209: 8 Libros Tecnologia 2010

investigación ya no son tarea de un investigador individual o de un centro de investigación, sino de redes de investigadores y centros de investigación al nivel escala de los estados nacionales o internacionales. En este sentido, el éxito de una innovación o una mejora depende de la conexión entre la red de investigación y los ciclos de producción o de servicios. Requiere la integración de los dos ciclos – el de investigación y el de producción – en una red. Tal consideración nos lleva a la siguiente distinción:

Red externa de I + D

Page 210: 8 Libros Tecnologia 2010

La estructura de I+D interna está compuesta generalmente por las siguientes áreas funcionales: I+D; marketing, producción y dirección general. La última área no está involucrada en el trabajo cotidiano de I+D, sino que se trata de la instancia de control y de supervisión, que toma las últimas decisiones para seguir adelante en las distintas fases del proceso de innovación o para interrumpir el proceso mismo.

Red interna de I + D

La red externa puede estar compuesta por la red interna de las empresas, que se dedica a las actividades de I+D. El sistema público de educación y formación, que incluye las universidades y sus centros de investigación. Diferentes centros públicos de investigación, que formalmente son independientes del sistema público de educación y formación, pero que en general mantienen estrechas relaciones con las universidades, por ejemplo a través de personal compartido. Centros de investigación sectoriales, que orientan sus actividades investigadoras a un sector económico específico. Estos institutos forman parte de la llamada red sectorial de formación y consultoría que los actores sociales de los diferentes sectores mantienen por separado o conjuntamente mantienen.

Page 211: 8 Libros Tecnologia 2010

Modelo ideal de redes de innovación

La configuración concreta de las redes varía de país a país (y supuestamente también de empresa a empresa) pero se observa aparte de su transnacionalidad otra característica común. Los actores que participan en las redes de innovación provienen de diferentes áreas o sistemas sociales. Por ejemplo, las universidades y sus centros públicos de investigación pertenecen al sistema de la educación profesional, al nivel académico y han desarrollado un discurso propio, que es diferente al discurso de las áreas de I+D de las empresas lácteas, que están bajo la presión de eficiencia económica. Y también en el seno de las empresas las diferentes áreas involucradas en el I+D tienen sus propios puntos de referencias, lógicas de acción comunicativa y sus discursos propios.

Page 212: 8 Libros Tecnologia 2010

1.8 Proceso de innovación y ventaja competitiva

Como se muestra en el esquema, este proceso surge del encadenamiento de investigación básica que aporta un conocimiento nuevo, con la investigación de desarrollo que transforma ese conocimiento nuevo en una tecnología o invento. El rol del diseño entonces estaría dado por transferir ese conocimiento tecnológico al mercado a través de un proceso colaborativo e interdisciplinario que permita por un lado transformar deseos y necesidades de usuarios determinados, en requerimientos de diseño a partir de la conjunción de herramientas de las artes y las ciencias sociales (observación), y por otro, dar forma a

Page 213: 8 Libros Tecnologia 2010

productos, procesos o sistemas que tomen dicha tecnología y agreguen valor o utilidad funcional y emocional al usuario (proyecto). El diseño es entonces un vehículo mediante el cual se conectan los deseos de usuarios y grupos de interés con una plataforma tecnológica que permita llevar adelante una modificación de realidad que agregue valor. El rol del diseño tiene que ver con la construcción de herramientas de transferencia desde deseos a objetivos informados y luego a materia formal.

Los elementos incidentes en el proceso innovativo son:

-Identificación de la demanda potencial insatisfecha.

-Correcta identificación de la factibilidad técnico - económica.

-Integrar los dos primeros en un nuevo concepto de diseño.

-Debe ser de interés para la esfera de producción / servicio.

-Considerar las capacidades financieras y de dirección.

-La etapa de solución que concluye con la elaboración del paquete tecnológico que contenga las tecnologías de producción (producto y proceso), la distribución y las tecnologías de consumo.

En tanto que los factores críticos de éxito en la innovación que a menudo se presentan son:

-Necesidad social asociada a la demanda.

-Potencial científico - técnico adecuado.

-Comunicación, colaboración e integración entre todos los factores.

-Eficiente trabajo de desarrollo tecnológico.

-Oportunidad de salida a tiempo al mercado. Política de precios.

-Calidad y competitividad del producto. Reducción de costos.

-Profesionalidad gerencial. Uso de técnicas adecuadas.

-Resultados perceptibles y adaptabilidad.

-Presiones externas (regulaciones, el suministro insumos, etc).

Impacto social y medioambiental.

Page 214: 8 Libros Tecnologia 2010

ESQUEMA SIMPLIFICADO DE UNA INNOVACIÓN “EMPUJADA POR LA CIENCIA”

(SCIENCE PUSHED).

Page 215: 8 Libros Tecnologia 2010

ESQUEMA SIMPLIFICADO DE UNA INNOVACIÓN “EMPUJADA POR LA DEMANDA”

(DEMAND PULLED).

No se debe pensar que estas dos formas de generación de tecnologías son las únicas. En los momentos actuales se reconoce que la generación de una nueva tecnología, que origina, consecuentemente, un cambio tecnológico, abarca complejas interdependencias entre las distintas etapas del proceso en las que la oferta y la demanda de tecnologías están relacionadas entre si. El ritmo, la dirección y los determinantes del cambio tecnológico varían de modo considerable según los sectores, lo productores y las tecnologías. En torno a la cuestión de la innovación empujada por la tecnología o por la demanda, han surgido dos concepciones contrapuestas extremas del desarrollo tecnológico: la primera pudiera denominarse ofertista porque dirige su atención hacia aquellos factores que afectan la oferta del conocimiento tecnológico y la segunda que pudiera llamarse demandista, pues centra su atención sobre factores que conforman la demanda por tecnologías y los canales por intermedio de los cuales se expresa.

Page 216: 8 Libros Tecnologia 2010

1.9 Innovación tecnológica como sistema. Esquema sistémico

La innovación es un proceso sistémico. Por ello es imprescindible que, desde el inicio de su proceso y a lo largo del mismo, se establezca una efectiva comunicación y compromiso entre las esferas de I+D, de ingeniería y diseño, de normalización, de producción, de suministro, de distribución y comercialización, así como, de manera directa o indirecta, con el usuario o el consumidor final. La comunicación tardía o deficiente entre algunos de estos factores puede retardar o poner en peligro todo el proceso innovativo.

Page 217: 8 Libros Tecnologia 2010

Factores que obstaculizan la innovación

Factores económicos

Riesgos excesivos

Falta de Recursos financieros

Costos de innovación elevados

Periodo de recuperación prolongados e incierto

Mercado pequeños

Factores técnicos y productivos

Insuficiente infraestructura para la innovación

Dificultades para obtener materias primas y materiales

Dificultades para obtener repuestos

Dificultades para el mantenimiento técnico-productivo

Insuficiente aplicación de mercadotecnia

Insuficiente nivel de cooperación tecnológica con:

- otras empresas

- Universidades y centros de investigación

- Consultarías

- Otras entidades de gestión tecnológicas

- Insuficiente nivel de cooperación tecnológica

Factores relativos a los recursos humanos

Falta de personal calificado

Resistencia al cambio

Insuficiente capacitación y entrenamiento tecnológico

Insuficiente capacidad de los directivos en Gestión Tecnológica

Page 218: 8 Libros Tecnologia 2010

Factores relativos a la información

Insuficiente información sobre avances tecnológicos

Insuficiente información sobre el mercado.

Insuficiente información sobre los competidores.

Insuficiente difusión en las áreas de la empresa

Otros factores

Limitadas oportunidades tecnológicas

Limitaciones de la legislación y regulaciones vigentes

Difícil comercialización de los nuevos productos

Escaso dinamismo tecnológico en la rama

Consideraciones finales

Desde hace tiempo se considera que el trabajo en equipo puede generar grandes beneficios al realizar una tarea, "dos cabezas piensan más que una" es una frase popular que así lo evidencia, pero más allá de esta concepción popular rara vez en el entorno empresarial se analiza, de una manera rigurosa, la conformación de Equipos o Grupos de Trabajo. Paralelamente, parecería ser que la Creatividad está relegada a personas más relacionadas con el arte, y dentro del mundo de los negocios, sólo unos pocos tienen “permiso” para implementarla. Sin embargo, llegamos a comprender que la Creatividad no es un resultado espontáneo, sino que es parte del proceso diario del trabajo en equipo y que no se tiene que pensar en ella como un recurso extraordinario, sino que para que se obtengan resultados verdaderamente creativos el equipo tiene que adoptarla como una filosofía de vida.

Page 219: 8 Libros Tecnologia 2010

REFERENCIAS BIBLIOGRÁFICAS

Burgelman, R.A.: "Intraorganizational ecology of strategy - making and organizational adaptation". Unpublished manuscript, Graduate School of Business, Stanford University.

Evan, W; (1966): "Organizational Lag" Human organization N. 25. (51-53).

Evans, R. Y Carles, P.(1998): "Integral organization renewal: cases ilustrating the application". Oxford Univ. Press.

Farr; J. (1992): "Innovation and creativity at work". Wiley and sons.

Fainstein, H. La gestión de equipos eficaces. Ed. Macchi

Harvard Bussines Review, (2000): Creatividad e innovación, Ed. Deusto. Bilbao, España.

Kastika, E. Desorganización creativa, organización Innovadora. Ed. Macchi

Kastika, E. Los 9 mundos de la Creatividad en el Management. Ed. Macchi

Lagos, C.; Grandjean, T. (1999): Creatividad y nuevas aventuras empresariales Ed. ConoSur Ltda. Stgo, Chile.

Revista Trend Management Vol. 6 Nº 5 Ed. Trend Chile S.A., Chile 2004.

Revista Trend Management Vol. 7 Nº 2 Ed. Trend Chile S.A., Chile 2005.

Page 220: 8 Libros Tecnologia 2010

Impreso en Yael Gráfica Av. Córdoba 2210 – 1º Piso – CABA

[email protected] Junio de 2011