Las funciones del criterio de racionalidad en la investigación social

El criterio de racionalidad, la diferencia entre la acción racional y la irracional, es parte importante de varias tradiciones teóricas. Habermas, que abre La Teoría de la Acción Comunicativa como una teoría de la racionalidad. Más recientemente, y en otra tradición muy distinta, discutiendo sobre la recepción de diversas ideas que flexibilizan los requerimientos de las teorías del actor racional Gianluca Manzo menciona que:

As remarked by Abell, the understanding of preferences and actions in terms of reasons implies that the distinction between rationality and irrationality is blurred. As a consequence, a priori, without any restriction on the kind of reasons that actors can mobilize, prediction is difficult (Manzo, Data, generative models and mechanisms, Cap 1 en Analytical Sociology, Wiley, 2014, p 25)

¿Por qué ciencias empíricas debieran darle importancia a esa diferencia? En el caso de Habermas, y similares, que se ubica en la frontera entra filosofía y ciencias sociales, se puede plantear que la racionalidad ocupa otros papeles y que la importancia de la racionalidad es menos discutible. Pero para un análisis empírico de la realidad, ¿cuál es la relevancia de la categoría como tal?

El texto de Manzo nos presenta un argumento: Que sólo el criterio de racionalidad nos permite predicción. Sin embargo, el argumento parece más bien débil: Hay múltiples teorías individuales del actor que han hecho predicciones sin usar ideas de racionalidad; y bien sabemos que la teoría del actor racional no presenta necesariamente predicciones claras (como la amplia familia de soluciones en teoría de los juegos atestigua, cada una de ellas una forma distinta y presuntamente racional de limitar el número de soluciones aceptables). Con lo cual volvemos a la pregunta inicial: ¿Por qué debiera ser relevante la racionalidad?)

Una perspectiva en torno al tema es la de insistir que todas las acciones son racionales. Gary Becker, para dar un ejemplo, dedicó toda su carrera a ello: a mostrar que cualquier conducta que a primera vista parecía irracional podía mostrarse como racional. En cierto sentido, es un procedimiento algo vacío: No hay conducta para la cual no pueda inventar un modelo bajo el cual sea racional. Sin embargo, tiene utilidad, si se quiere, en un sentido heurístico: como un principio bajo el cual buscar explicaciones (así es como trata la idea de la acción racional Granovetter en su célebre Economic Action and Social Structure de 1985). En todo caso, no funciona como un principio empírico, no es una hipótesis contrastable ni refutable, sino a lo más una máquina para generar hipótesis que sí podrían ser contrastables.

Frente a ello, lo otro es insistir en que la diferencia entre acción racional y acción irracional es una diferencia empírica: Que corresponden a diferentes tipos de acciones. Es un procedimiento de raigambre clásica si se quiere: Weber y Pareto lo usaron ambos en sus clasificaciones de acción. Pero este camino produce problemas incluso más fundamentales.

Es común en la tradición que enfatiza la idea de la acción racional plantear que una de las ventajas de la explicación racional es que ‘se explica a sí misma’: una vez que alcanzamos una explicación racional no necesitamos nada más para comprenderla (Coleman y Elster han dado argumentos de esa índole). No estará de más recordar a Weber quien en los Conceptos Fundamentales al inicio de Economía y Sociedad nos plantea, en repetidas ocasiones, que la acción racional con arreglo a fines tiene la máxima comprensión. Ahora, si ello es cierto y además la acción racional es sólo un tipo de acción, entonces nos encontramos con que muchas acciones quedan fuera de lo comprensible: Weber dice eso de forma casi explícita al referirse a la acción tradicional o afectiva; un autor como Elster tiene que reconocer que existen normas y valores pero no tiene forma de explicarlos o comprenderlos (en The Cement of Society de 1990 por ejemplo ello es muy claro). Si recordamos que la alternativa de pensar que todas las acciones son racionales tiene la virtud de escapar lo anterior al precio de la imposibilidad de la prueba empírica.

En cualquier caso el principal problema de quienes piensan que es una diferencia empírica es más bien otro: ¿Cómo podemos diferenciar una acción racional de una irracional? Ello requiere, indefectiblemente, un criterio externo a los actores: El investigador conoce lo que es racional y a partir de ello puede medir la diferencia de la acción real (lo que Popper llamaba el método cero). En algunas ocasiones lo anterior puede tener sentido. Por ejemplo, en las investigaciones de sicología cognitiva, donde el investigador conoce la respuesta correcta (porque conoce efectivamente todos los datos de la situación que le presenta al investigado) puede, en principio usarse.

Ahora bien, el criterio externo no es algo universalizable. En buena parte de las situaciones -específicamente, en todas aquellas situaciones que no son de laboratorio- no conocemos la respuesta racional, por la simple y sencilla razón que no conocemos las reglas del juego. O para decirlo de otra forma, cuáles son las reglas del juego es algo que hay que investigar, es desconocido tanto para investigadores como para investigados. Al fin y al cabo, nunca hay que olvidar que los investigadores no son más que simplemente un tipo de actores, que no tienen ningún acceso especial al mundo. La dificultad para en contextos empíricos reales de establecer cuál es la acción racional lo debiera dejar en claro las discusiones entre los mismos investigadores sobre, por ejemplo, criterios de racionalidad. Conocer el mundo no es una actividad trivial. Cualquier revisión de la literatura sobre la racionalidad en torno al conocimiento nos recordará, por cierto, que se puede ser perfectamente racional y tener creencias objetivamente falsas (y lo contrario también es cierto). Lo cual hace que no sólo conocer el mundo no sea trivial, y por tanto determinar que es lo racional no lo sea; sino que incluso sabiendo cómo es el mundo en determinado ámbito con ello tampoco es suficiente para determinar qué es lo racional.

En última instancia, no se puede generalizar ni universalizar una idea que requiere un criterio externo sencillamente porque no tenemos criterio externo genérico. Los investigadores no son una población distinta de los investigados y ello vuelve imposible que ellos tengan un criterio externo establecido para diferenciar entre los investigados que es lo racional y que es lo irracional.

Con lo cual volvemos al punto de partida: Al parecer no hay uso para el criterio de racionalidad, en particular no hay uso para la distinción entre acción racional y acción irracional, en las ciencias sociales empíricas. Podemos usar heurísticamente un criterio universal de acción racional para crear hipótesis de modelos de comportamiento. Y más en general, podemos usar el criterio que las acciones tienen sentido -son ‘razonables’ y comprensibles por otros, aun cuando para entenderlas tengamos que salir de la idea de racionalidad y abandonar el criterio.

Pero la diferencia entre acción racional y acción irracional resulta inusable. Quizás a los investigadores les gusta usarla porque ella permite mantener una diferencia clara entre ellos (que acceden y determinan qué es la racionalidad) y los investigadores (que para que sus acciones sean racionales deben superar las pruebas que los investigadores ponen).

 

¿Por qué los individualismos sociológicos huyen de la sicología?

Una característica recurrente de los individualismos metodológicos en ciencias sociales (se repite desde Popper en La Miseria del Historicismo, caracteriza a buena parte del rational choice, y más recientemente al modelo DBO -desires, beliefs and opportunities- de Hëdstrom, Dissecting the Social, 2005) es un rechazo a basar sus ideas en el conocimiento de la sicología- Lo cual no deja, en primera instancia, de resultar algo extraño: si uno va a basar sus explicaciones de la sociedad en el individuo, no estará de más, uno pensaría, en conocer lo que una disciplina centrada en analizar a dicho individuo dice al respecto. En algún sentido, la tendencia es ‘clásica’, Weber discute buena parte de sus ideas, en particular por ejemplo en La Ética Protestante, en relación a lo que es significativo sicológicamente, pero en general no cita ni se refiere a la sicología de su época.

El rechazo a la sicología es algo que caracteriza, en cierto sentido, a buena parte de la sociología; pero ello es relativamente esperable en aproximaciones que enfatizan dimensiones estructurales o sistémicas. Pero en las que dicen, y plantean en todos los momentos que es la única forma científica de hacer las cosas, que el centro es el individuo en realidad resulta llamativo.

La tendencia mencionada, en todo caso, es recurrente pero no todos los autores caen en ello, Raymond Boudon (Le Juste et le Vrai, 1995, por ejemplo, pero casi cualquiera de sus obras sirve) basa buena parte de sus ideas de explicación cognitivista de las acciones y las creencias en, al menos, una discusión con la sicología cognitiva -aunque sea para realizar varias críticas, pero nadie negará que se ubica y plantea la relevancia de esos temas.

Hay diversos argumentos para defender esa ausencia: El de Popper que la sicología es una de las ciencias sociales, y por ello no puede ser la base; el bastante más común que para los propósitos de las ciencias sociales resulta necesario la reducción al individuo, pero basta con un modelo relativamente sencillo y básico de ese átomo para la explicación: No nos interesan las complejidades de ese nivel sino precisamente explorar las complejidades al nivel social. Y sin embargo, ningún argumento resulta plenamente convincente. Al fin y al cabo, toda explicación individual se basa en atribuirle al individuo ciertos atributos, y ¿no debiera ser el conocimiento sicológico el que nos debiera informar sobre esos atributos? Si vamos a decir que, por ejemplo, los individuos tienen creencias sobre las cosas, ¿no debiera entonces lo que sabemos sobre cómo se generan esas creencias de alguna utilidad? Puede que la sicología fuera sólo una ciencia social, y que las cosas que ella dice dependan de factores sociales, pero cuando los atributos de la entidad que es la piedra de toque de las explicaciones propuestas son la materia de estudio de ella, al menos una revisión de ese conocimiento parece útil.

En cierta medida, el rechazo a la sicología tiene como base el que si se toma el conocimiento sicológico como parte integrante de una buena explicación individualista entonces se desarman las pretensiones del individualismo metodológico.

Pensemos el argumento que para las ciencias sociales basta con un modelo básico, casi de sentido común (es que lo plantea Hëdstrom de hecho), del individuo. Como argumento pragmático funciona: casi nunca exigimos en una explicación reduccionista que se llegue al final, y en alguna parte hay que detenerse-, pero si es pragmático no es de principio. Puede que para un determinado estudio no sea necesario ni útil hacer la reducción: Se pueden hacer múltiples aportes a la biología sin preocuparse de los fundamentos físicos y químicos. Pero, al mismo tiempo, sin ser necesario tampoco tiene sentido excluirlo por principio: se puede avanzar en la comprensión de muchos procesos biológicos si uno hace esa reducción (por ejemplo, ver la exposición de Nick Lane, Life Ascending, 2009, sobre fotosíntesis, para darse cuenta que saber de electrones, de cómo se componen ciertas moléculas etc. resultó de utilidad para entender dicho proceso).

Pero sólo si hago una exigencia de principio puede el individualismo metodológico sostenerse como la única forma científica de hacer las cosas. Porque si aceptamos que es la decisión de donde detener la explicación es algo pragmático, entonces otros puntos de detención resultan perfectamente aceptables. Para ciertas explicaciones, por ejemplo, bastará con remitirse al nivel organizacional sin necesidad de caer en los individuos -bajo la misma idea que puedo entender varias cosas con un modelo básico de organizaciones sin preocuparme de las complejidades de cómo se generan.

Y esa exigencia de principio requiere excluir la sicología además porque si acepto la sicología entonces la naturaleza especial de la entidad individuo también se disuelve. La sicología nos muestra que hay procesos que generan a ese individuo, y luego esa ‘unidad’ es creada. Y entonces al pasar a los procesos más elementales que lo forman, al mismo tiempo muestro que el individuo es tan creado como las otras entidades sociales.

No queda nada especial para el individuo: Dependiendo de mis intereses de investigación puedo ubicarme en cualquier punto como inicio de la explicación. De hecho, en ciencias más radicalmente reduccionistas, como la física, eso es algo claro. La termodinámica, en sus inicios, no estaba basada en ninguna idea de las entidades elementales que producían sus fenómenos, la idea de basar la termodinámica en una explicación más ‘micro’ (al nivel de átomos), vino posteriormente. Y si bien era claro que el fundamento micro era muy útil, a nadie se le ocurrió quitarle el estatus de científico a las explicaciones ‘macro’ iniciales. Y si ello funciona en física entonces, a fortiori, debiera funcionar en sociología. Las explicaciones puramente macro de fenómenos sociales, digamos como las típicas de la tradición de estudios históricos comparados (ver Mahoney y Rueschmeyer, Comparative Historical Analysis in the Social Sciences, 2003 para una exposición no muy antigua), las de Barrington Moore, de Theda Skocpol etc., resultarían entonces perfectamente aceptables. Realizar un basamento micro, de obtenerlas a partir de lo que sucede al nivel de individuos, sería algo útil y podría entregar muchas pistas, pero no sería necesario para producir conocimiento válido y con sentido.

Integrar la sicología a la explicación del individuo, que sería lo más consistente, con un programa reduccionista integral, lo que termina haciendo es quebrar el aura especial del individuo como entidad básica de la explicación. En otras palabras, quiebra la idea esencial del invidualismo metodológico -que sólo si una explicación parte del individuo puede ser caracterizada como científica en las ciencias sociales. Pero en cierto sentido, el individualismo metodológico siempre ha tenido algo de una postura más bien ideológica que una pura búsqueda del mejor conocimiento.

Piketty y la Herencia

El muy reciente El Capital en el siglo XXI de Piketty empieza a discutir en profundidad sobre desigualdad en la página 261, la a estas alturas célebre relación r>g se discute en profundidad a partir de la página 385 (ambos números de la edición del FCE 2014). Y no estará de más recordar que el libro se llama Capital. Estas observaciones tienen algo de relevancia porque en la discusión sobre el libro se habla sólo de desigualdad (y ese es el tema sobre el cual el mismo Piketty pontifica habitualmente), pero de hecho varias de las afirmaciones centrales del libro no dependen de las estadísticas y tendencias de desigualdad presentadas.

El texto se inicia dando cifras de evolución del capital y son esas tendencias y las reflexiones a las que dan origen las centrales del libro -a mi bien humilde parecer.  En particular, nos interesa la evolución de la relación capital / PGB. Los gráficos de Piketty son claros en mostrar una curva en U tanto para Francia y el Reino Unido en el largo plazo: relaciones cercanas al 700% (el acervo de capital equivalente a 7 años de producción nacional) hasta el fin de la Belle Époque, una brusca caída posterior, y una recuperación a partir de los 70 (p 131-135). Los datos alemanes son similares en lo que dice relación a la evolución hasta los ’70, porque la recuperación del capital es menos pronunciada pero ello se debe principalmente a la ‘menor capitalización bursátil de las empresas¿ (p 162). Estados Unidos no tiene una evolución similar, porque su punto de partida es menos ‘capitalizado’ (cerca de los 1800 la relación es de 300%), y alcanza cifras de 500% sólo hacia principios del siglo XX. La caída posterior es menos acusada que en Europa, y lo mismo puede decirse de su recuperación posterior.

La otra reflexión relevante que nos interesa destacar es lo que Piketty menciona cómo la ‘segunda ley fundamental del capitalismo’ (la primera es una identidad contable así que no la destacaremos). La fórmula en cuestión es ? = s/g, siendo ? la relación capital/PGB, s la tasa de ahorro y g la tasa de crecimiento. Lo que Piketty enfatiza es que, si damos la tasa de ahorro como dada, entonces si el crecimiento baja la relación aumenta. En otras palabras, el acervo de capital acumulado es más importante cuando la tasa de crecimiento es más baja. Lo cual tiene sentido si pensamos que la acumulación de capital, como Piketty recuerda constantemente, es riqueza basada en el pasado.

¿A que vienen estas consideraciones? Ambas nos muestran la magnitud de las dimensiones que afectan la relevancia del capital (el número ?). En el primer caso, Piketty pierde pocas ocasiones en recordarnos que ello es efecto de las dos guerras mundiales y todo lo que ellas traen consigo (no sólo destrucción física de capital, sino los procesos de inflación y, por cierto, los cambios sociales que permitieron una mayor relevancia del Estado, y del capital público). Por ejemplo:

La guerra redujo a cero -o casi- la acumulación patrimonial llevando mecánicamente a un gran rejuvenecimiento de las fortunas. En este sentido, son las guerras las que hicieron tabla rasa del pasado hasta el siglo XX, creando la ilusión de una transformación estructural del capitalismo (p 436)

En relación a lo segundo, la tasa de crecimiento que Piketty está mencionando es la tasa de crecimiento global, o sea incluyendo el aumento del per cápita y el crecimiento demográfico. Ahora bien, resulta claro que en general la tasa de crecimiento demográfico está disminuyendo, y en particular para los países desarrollados es cercana a 0 (en algunos países incluso en disminución), y este es para Piketty -al final- el mecanismo dominante. No se puede esperar que el crecimiento del per cápita pueda eliminar esa diferencia, Piketty nos muestra que para los países desarrollados en los últimos 40 años sus tasas de crecimiento son de alrededor del 1,7%-1,9% (y muy similares), y que ‘no existe ningún ejemplo de un país que se encuentre en la frontera tecnológica mundial y cuyo incremento de la producción por habitante sea constantemente superior a 1,5%’ (p 111). En otras palabras, la disminución del crecimiento global en los países desarrollados no se puede revertir y es producto de la disminución del crecimiento demográfico. Y esto produce, ‘mecánicamente’ como nos recuerda Piketty, el retorno del capital.

En otras palabras, el mundo de mediados del siglo XX -que a los franceses les gusta denominar ‘los 30 gloriosos’-, un mundo donde el peso del capital era menor, es producto de una serie de factores irrepetibles.

 

Dado ese hecho, el retorno de relaciones altas entre capital e PGB, es que se puede examinar lo que sucede con la desigualdad. Un tema importante a este respecto es la relación entre desigualdad de ingresos y desigualdad de capital. Resulta interesante en torno a este tema que muchas de las críticas a Piketty se refieren a cosas que él trata, y reconoce, en el texto: Por ejemplo, y es uno de los más comunes, que el aumento de la desigualdad en Estados Unidos tiene mucho que ver con el aumento de la desigualdad salarial, y en particular con el aumento de los ingresos de los ejecutivos es algo que Piketty menciona y discute. De hecho, Piketty destaca que una de las innovaciones del siglo XX es la generación de una clase media en torno al capital (debido a la distribución de la propiedad inmobiliaria) que es una innovación clara: Porque en torno al capital una clase media previamente era inexistente y en ese sentido la desigualdad del capital es en la actualidad claramente menor que a principios del siglo XX (p 373-383). Y de hecho, la desigualdad de ingresos ha aumentado.

Pero a pesar de ello, es un hecho estructural que la desigualdad del capital ha sido siempre más alta que la desigualdad de ingresos, y luego el aumento de la importancia del capital que mencionamos anteriormente tiene como consecuencia de largo plazo un aumento de la desigualdad en la sociedad -porque el peso del capital en la sociedad es mayor. Y ese predominio del capital proviene, como vimos anteriormente, de tendencias estructurales bastante fuertes.

 

Llegados a este punto podemos recordar que el título de esta entrada dice Piketty y la herencia, y no hemos mencionado nada sobre herencia hasta ahora. Ahora, ¿por qué estas dinámicas de las desigualdades son relevantes?

Piketty menciona, varias veces, que sociedades tan desiguales no serían estables, y que necesitarían altos niveles de coerción para mantenerse -o lograr convencer que esas desigualdades son naturales. Sin embargo, al parecer es posible lograr ese convencimiento. Los altos niveles de desigualdad han sido estables por largo tiempo en muchas sociedades; y en particular las sociedades de la Belle Époque parecen haber logrado un alto grado de compromiso por parte de sus integrantes, como los ingentes sacrificios que realizaron en 1914 lo muestran. Que esos sacrificios luego fueran parte de los procesos que requirieron la invención del Estado de Bienestar es otra cosa, pero lo que muestra esa situación es que Francia o el Reino Unido (o Alemania para el caso) no tenían problemas de cohesión social -como algunos hablan hoy en día- siendo sociedades altamente desiguales.

Sin embargo, Piketty, de hecho, no se centra en lo anterior. Para él, el punto central es, al final, la importancia de la herencia (en contraposición con el talento). Dicho en corto, una sociedad con una alta pre-eminencia del capital, o sea del acervo acumulado del pasado, es una sociedad en la cual las herencias adquieren mayor importancia: La riqueza del pasado es más importante que la riqueza del presente. Las estadísticas francesas por ejemplo sobre sucesiones, que al respecto son más completas y de más largo alcance que en otros países, así lo muestran; y Piketty muestra como dentro de las grandes fortunas hay una fuerte presencia de las heredades -y no sólo de las empresariales.

En cierto sentido, la desigualdad como tal no es ni siquiera el problema en Piketty. Un autor que tiene una sección donde se pregunta, para las sociedades del pasado, si la alta desigualdad era un requisito para la civilización (p 456-458) ciertamente no es un simple abogado de la igualdad. De hecho, el tema de la desigualdad lo inicia Piketty discutiendo a Balzac (el discurso de Vautrin en el Pobre Goriot), al cual vuelve varias veces durante su texto, y la discusión es sobre los caminos para el ascenso social: ¿Tiene más sentido el camino del mérito y el esfuerzo o el camino de la herencia? (en la novela esto es la elección entre estudiar y casarse con una heredera). El mundo del predominio del capital es el mundo del predominio de la herencia, y del peso del pasado en el presente. Es para evitar esa fuerza de la herencia y del pasado, y luego para darle realce a la elección del esfuerzo y el mérito individual en el presente, que la desigualdad que produce el capital se transforma en un problema.

Esto también es parte del peso que le da Piketty a la discusión de los niveles más altos de la distribución (no sólo de los percentiles, sino de los milésimos e incluso más pequeño). El mundo del predominio del capital no es sólo el mundo en el cual unos pocos concentran una gran parte de la riqueza, es un mundo en el cual esos pocos son además herederos (y Piketty muestra como a medida que se sube en los ingresos aumenta la importancia de la renta, del capital, como fuente de ingresos). Y, dado como son los patrimonios, la riqueza empresarial presente es riqueza heredada futura (eso requiere sólo el paso a la siguiente generación).

Disminuir el peso del capital, y de la desigualdad que ella produce, es también -y eso es en lo que Piketty finalmente más se concentra- disminuir la importancia de la herencia. Es la lucha contra la riqueza heredada lo que concentra las iras de Piketty, más que solamente la desigualdad como tal.

La disminución de la Pobreza en Chile (2006-2013)

El hecho que los resultados de la última CASEN hayan presentado tres cifras ‘oficiales’ de pobreza (7,7% usando pobreza de ingresos ‘tradicional’, 14,4% usando pobreza de ingresos medida con nueva metodología y canasta, 20,4% usando pobreza multidimensional) debiera, espero, tener una consecuencia: La de eliminar el fetichismo de ‘la’ cifra de pobreza. Como casi cualquier fenómeno que no es fácil de medir, hay variadas alternativas de medición -cada una con sus fortalezas, problemas  y usos.

De hecho, en otros aspectos de la vida social se está más acostumbrado a tener varias cifras al mismo tiempo. Están las conocidas M1 a M6 para medir masa monetaria, para medir desempleo el Bureau of Labor Statistics de Estados Unidos también usa U1 a U6 (link aquí). En el caso de pobreza tener una cifra para medir pobreza de ingresos y otra para medir pobreza multidimensional parece razonable, dado que ambos se refieren a aspectos que son diferentes en la realidad (y por lo tanto que no quedan cubiertos al mismo tiempo con ninguna cifra particular).

De las distintas cifras presentadas

Dicho lo anterior, procedamos entonces (en base al documento del MDS) a realizar algunas observaciones sobre las modificaciones.

La cifra tradicional, como ya ha quedado claro en la discusión pública, es distinta a lo que se había dicho anteriormente por parte del MDS el 2011 y el 2013. La raíz de ese asunto, que también fue discutida en su época, dice relación con una modificación que realizó la CEPAL a la medición de pobreza en América Latina en esos años, que fue producto a su vez del comportamiento de inflación. CEPAL decidió diferenciar la cifra de inflación de alimentos de la cifra de inflación de otros bienes al calcular el valor de las respectivas canastas, porque en esos años se observó un aumento importante del precio de los alimentos, que fue mayor al obtenido en otros bienes. Por lo tanto, simplemente multiplicar por dos no parecía adecuado. Este año, el MDS decidió usar ese tipo de correcciones de la CEPAL. En principio, ese tipo de correcciones parece razonable, pero el criterio se podría aplicar retroactivamente en todo caso (no debe ser la primera vez que la inflación de alimentos y de otros bienes es muy diferente); y genera otra serie de consideraciones que veremos más adelante.

La nueva cifra de pobreza de ingresos no es sólo una adecuación de canasta. Algo que, por cierto, venía siendo pedido por muchos años dado que en realidad la canasta usada (basada en la Encuesta de Presupuestos Familiares de 1987) ya no tenía sentido. El ejemplo más usado era del de aceite en bolsa, cuya variación ya no dice mucho de lo que pasa con las familias en Chile. Durante mucho tiempo se defendió su continuidad por el tema de comparación, pero eso dependía -finalmente- de que sólo se usara una cifra. La decisión de usar más de una cifra elimina ese problema: Si queremos comparar ‘lo mismo’ podemos usar esa cifra hacia atrás, si queremos una cifra que mejor dé cuente de las realidades de consumo actual tenemos otra cifra.

Pero como ya se dijo no es sólo una adecuación de canasta. Se usan medidas de equivalencia, para dar cuenta del hecho que existen ciertas ‘economías de escala’ (un hogar de dos personas no necesita doblar su gasto en relación a un hogar de una persona para alcanzar el mismo estándar de vida). Se amplía el valor de vivienda inputada (el ahorro que implica que no pagas arriendo cuando eres propietario), a viviendas cedidas por ejemplo (que también tienen ese ahorro aun cuando no sean propietarios). Finalmente, no se ajusta a cuentas nacionales -como se hacía con anterioridad. Esto sigue la práctica de los países de la OCDE pero a decir verdad a mi personalmente me produce algo de resquemor: Los datos auto-reportados de ingreso, que son los que usa la CASEN, por más cuidadoso que sea en el cuestionario, siempre tienen problemas de validez y confiabilidad. En todo caso, en general son cambios que seguían las recomendaciones de las múltiples instancias para discutir posibles cambios de la CASEN.

Finalmente, tenemos pobreza multidimensional que incluye además otras dimensiones que afectan el bienestar, aparte del ingreso. A saber: Educación, Salud, Trabajo y Seguridad Social, y Vivienda. También esto era algo que se venía discutiendo desde hace tiempo. No sé si me convence la aplicación específica realizada (darle la misma importancia a todos no deja de ser un juicio por más que parezca ‘imparcial’). Pero bueno, ya tener un dato de este tipo es relevante.

 

De los resultados de las distintas cifras

Ahora bien, los resultados siguen todos la misma tendencia no importando la medida de pobreza que se use. Sea cual sea la forma de medir se observa una importante disminución a lo largo de los años en cuestión. Las diferentes formas de medir producen importantes diferencias en la magnitud de la pobreza (se doble o casi triplica el nivel) pero en todos los casos sigue la misma tendencia a lo largo del tiempo.

Evolución de Pobreza en Chile 2006-2013 (fuente: MDS)

evolucion_pobreza

La robustez de los resultados hace que, entonces, uno se pueda sentir más o menos confiado de las conclusiones: Efectivamente ha disminuido la pobreza en los últimos 8 años (siguiendo la tendencia general). Cuando aparecen las cifras de pobreza casi siempre se genera una discusión sobre la medición como tal -que la pobreza está mal medida y todo eso. El caso es que el mero hecho de producir un abanico de formas de medición nos muestra que, sí la condición de pobreza depende de cómo se la mida, pero hay ciertos hechos que son robustos a esas modificaciones.

 

Del hecho de medir pobreza.

Por cierto, las formas de medir pobreza no se reducen a lo que se ha presentado con la CASEN 2013. Las hay desde las muy básicas (la de 1 dólar por día por ejemplo) hasta algunas que son más exigentes (pobreza relativa por ejemplo) que las usadas por el MDS. Lo cual lleva, indefectiblemente, a preguntarse, ¿qué implica medir pobreza?

Un tema que creo crucial es darse cuenta que, al final, se es pobre en relación a algún estándar. Lo cual es obvio pero lo inmediatamente relevante es observar que ese estándar es, en última instancia, casi siempre relativo: está asociado al nivel de vida que permite insertarse en la propia sociedad sin demasiados problemas. Esa es la razón por la cual a una persona pobre en la actualidad no tiene sentido decirle que tiene un nivel de vida más alto que el de buena parte de la humanidad a lo largo de la historia, el tema es que en relación con su sociedad su estándar de vida no le permite hacer cosas que para su sociedad son normales.

La medición de pobreza por ingresos que durante mucho tiempo ha sido tratada como una medida absoluta de pobreza (y es parte de la razón para la resistencia en relación al cambio de canasta) es también finalmente una medición que implica un estándar relativo: Pobre es quién debe gastar un 50% de su ingreso en alimentos (la línea de pobreza es un ingreso 2 veces el de la canasta básica de alimentos). Esa es una situación que para toda la población Chile tenía hasta hace un poco más de 30 años. Ahora bien, en Chile en la III EPF (1976-1977) para toda la población de Chile el gasto en alimentos representaba un  41,9% (y sólo en el quintil IV estaba bajo el 50%, ver link aquí). Uno podría plantear que usando el mismo criterio el nivel de pobreza estaba cerca del 60% de la población, y quizás el criterio se podría discutir. Por otro lado, en la medida en que la mayoría de la población supera ese estándar, lo que se considera pobre también varíe, y el porcentaje de ingreso ‘disponible’ -descontando no sólo alimentación, sino otros gastos- supere cierto umbral.

El caso es que no importa qué tipo de medición se haga, ella depende de ciertos juicios de estándar de vida, de lo que se considera aceptable. Y esos son juicios que, inescapablemente, varían a lo largo del tiempo. Lo cual implica, a final de cuentas, que también deban hacerlo las formas de medir el fenómeno: Cuando la realidad cambia, también debe hacerlo la forma de medirla.

El libro del Blog, avances

MeditacionesHace algunas semanas me bajó la idea de reunir las entradas escritas para este blog; y luego, a partir de diversas conversaciones, la idea de transformar ello en un libro. Para lo cual resultó atendible seleccionar algunas entradas. Entonces, luego de esa selección y de algún trabajo de edición preliminar tenemos una primera versión.

La idea es, entonces, dejar en el mismo medio que le dio origen, para recibir comentarios varios y poder dejarlo, finalmente, en condiciones de publicación. Asunto que, creo, terminará siendo por auto-publicación, porque dudo mucho que alguna editora deje publicar el texto bajo Creative Commons. Pero bueno, de algo que sirva vivir en los tiempos contemporáneos, digo.

 

Entonces, el link aquí.

Nuevas reflexiones trinitarias

Años ha, en este mismo blog, publiqué una entrada (link aquí) en que planteaba que ‘la santísima trinidad la componen Joseph, Wolfgang y Ludwig y el único profeta es Johann Sebastian’.

Y ahora planteo que, en realidad, la idea tenía algo más de sentido que lo que había pensado inicialmente. Porque a Joseph bien se le podrían aplicar las ideas de serenidad y plenitud que corresponden a la persona del Padre; a Wolfgang bien le corresponden los atributos de la encarnación, el más ‘humano’ de los tres, por algo el más destacado en Opera;  y a Ludwig aplican los atributos de amor a la humanidad y de inspiración de la tercera persona, el Espíritu Santo.

Bien sabemos que las anteriores frases no son más que frases para hacer lo que realmente importa -que son links a Youtube.

Haydn, La Creación, versión completa con Bernstein. El número de la creación de la luz, que me parece bien como ejemplo de la persona del Padre, parte en 6:13 y ya está creado al finalizar el 10.


Mozart, La Flauta Mágica. Toda la opera es una maravilla, pero entre muchos posibles Bei Männern, welche Liebe fühlen, dueto de Pamina y Papageno. Janowitz y Berry, dirigidos por Klemperer, en una de las mejores versiones (creo). En todo caso, hágase a sí mismo un favor y escúchela entera.


Beethoven, el finale de la 9a es demasiado obvio en su mensaje de hermandad universal para plantear lo que queremos decir, así que… Tonteras. El final de la 9a, porque efectivamente ‘Freude, schöner Götterfunken / Tochter aus Elysium’. En el video la versión de Furtwängler de 1951 en Bayreuth, que debe ser la versión más famosa de todas. El Finale empieza en 49:30

La culpa de las reflexiones la tiene, quien más, Tomás de Aquino -de quién se me ocurrió leer la Suma Teológica, y donde justo estoy enfrascado en sus largas disquisiciones sobre la Trinidad. Aun cuando, si a él le debo una nueva escucha de las obras en cuestión, es una buena culpa.

Es un tema de estructura productiva. La evolución de los oficios en Chile 2000-2011

Usando la Casen, a veces resulta útil recordarlo, se puede analizar la evolución de diversos asuntos en nuestra sociedad. En particular, y es lo que haremos en esta entrada, observar cómo ha evolucionado la estructura laboral de Chile. ¿Qué porcentajes de vendedores? ¿De técnicos? ¿De personal no calificado? Los resultados son muy instructivos para determinar, si se quiere, el ‘nivel de desarrollo’ de Chile.

Tipo Oficio 2000 2003 2006 2009 2011
Gerentes, Ejecutivos 6,7 6,3 4,5 2,7 5,1
Profesionales 9,8 9,5 8,6 10,8 11,5
Técnicos (nivel medio) 8,0 8,3 7,8 9,7 7,6
Empleados Oficina 9,2 9,1 8,7 7,7 8,0
Vendedores 14,2 13,7 15,4 17,6 15,7
Trabajadores agricolas 6,1 6,5 5,4 4,0 4,9
Oficiales, operarios y artesanos 14,6 15,6 16,1 14,0 13,9
Operadores y Montadores de Maquinaria 9,3 9,3 9,6 9,2 8,9
Trabajadores no calificados 21,6 21,0 23,2 23,7 24,7
Total 100 100 100 100 100

Lo que quizás es más notorio es que la categoría más común durante todo el período, y de hecho ha incluso aumentado, es la de trabajadores no calificados: No ha bajado del 20% y el 2011 incluso llega a un 25%. En otras palabras, uno de cada cuatro o cinco empleos es de baja calificación. La idea de un país que se acerca al desarrollo, tan querida en ciertos círculos, no parece muy compatible con esa estructura de trabajos.

Por otro lado, los empleos de alta calificación (si incluimos en ellos las tres primeras columnas) ha oscilado en torno al 24% en toda la serie desde el 2000 hasta el 2011. Lo cual nos dice que de hecho no hay mayor movimiento, aunque hay un ligero y sostenido aumento de la categoría de empleos profesionales. O sea, por cada empleo de alta calificación hay un empleo de ninguna calificación. Mas aún, ello se logra sólo considerando como alta calificación los empleos técnicos (que se podría defender son de mediana calificación), y habría que recordar que bajo gerentes y ejecutivos se incluyen los dueños de negocio, que en Chile incluyen muchos dueños de pequeñas empresas (los que también se podría defender son del mismo tenor). En todo caso, dado que en la actualidad cerca del 40% de los jóvenes en la edad correspondiente tienen estudios de educación superior, ¿da cabida esa estructura de empleos a esa estructura de niveles de educación?

Dentro de la variopinta gama de empleos de calificación media -o sea todos aquellos que requiere algún nivel de capacitación aunque no necesariamente títulos formales- se puede observar que siempre han estado cerca del 50%. Hay ciertas variaciones internas (disminuyen algo los empleados de oficina, aumentan los vendedores etc.), pero la impresión sigue siendo más bien la de estabilidad.

En general, entonces, los datos nos muestran algo muy claro: La estructura laboral en Chile tiene un alto peso de empleos de baja calificación. Lo que implica ello en términos, por ejemplo, de productividad y de potencial de crecimiento, finalmente para el por algunos soñado salto al desarrollo, debiera ser relativamente claro.

NOTA. Dentro de las categorías laborales, ¿donde se concentra el empleo de menor calificación? Obviamente en empleadores es bajo y en trabajo doméstico extremadamente alto. Pero comparando las otras categorías, donde la relación no es tan clara, aparece un orden claro: Usando cifras del 2011 aparece que en asalariados públicos son un 15,5%, en trabajadores por cuenta propia un 16,7% y en asalariados privados un 24,3% son trabajadores de empleos sin calificación. El resultado es lo bastante decidor para que sea necesario comentarlo

Ha muerto Humberto Giannini

El día de ayer, 25 de Noviembre de 2014, murió Humberto Giannini. A propósito de ello no estará de más hacer algunas reflexiones sobre su obra. O al menos de uno de los textos que he encuentro más interesantes (y no sólo más interesantes entre la obra de Giannini, sino más interesantes como tal). La ‘reflexión’ cotidiana (en la edición de Universitaria que tengo), cuya primera edición es de 1987.

Lo primero es que lo de reflexión tiene en ese texto algo de literal: la vida cotidiana es reflexión porque vuelve habitualmente sobre sí: Es un viaje de ida y vuelta, y se vuelve al domicilio. Una vuelta que Giannini enfatiza es una vuelta a uno mismo, el domicilio que habitamos es un estado del alma (como nos cita de Bachelard en la página 32). Un domicilio que se distingue del mundo (donde se realizan acciones, ‘trámites’) y que permite reencontrarse a uno mismo.

Finalmente, habíamos señalado que el domicilio es un símbolo de un regressus ad uterum, a una mismidad protegida del trámite y de la feria. El mundo, con sus postergaciones, con su despiadada competencia, ‘está allá’. Aquí, en el domicilio parece ocurrir una suerte de reencuentro con uno mismo (página 59).

La idea del regreso al domicilio como un regreso a uno mismo (de uno que ha estado durante el día volcado hacia afuera) de hecho la usé en algún estudio empírico. De hecho, para un estudio sobre televisión, lo cual no deja de ser un uso algo bastardo, pero en defensa habrá que decir que bastardizado y todo muestra lo iluminador que puede resultar. Porque efectivamente podía permitir entender varias conductas de las personas entender que al volver a sus domicilios lo que hacen es reencontrarse con ellas mismas, y que dado que esto se produce luego de estar volcadas hacia afuera (en cierto sentido, ‘desarmándose’) se requiere de un trabajo subjetivo importante el poder reencontrarse (que en cierto sentido es un reconstruirse a sí que realizan las personas todos los días).

Lo segundo relevante es mencionar que una categoría esencial para entender la cotidianidad en Giannini es la idea del desvío, de la transgresión, la de salirse de esa ruta establecida. Y que esa transgresión es también parte de la cotidianidad (por ejemplo, ver la página 46). La calle es, en parte, la posibilidad permanente del desvío, que te encuentres frente a situaciones. También lo es la conversación (página 88-89). La conversación, algo que se realiza por el puro placer que ella produce, ¿qué es? O para expresarlo mejor, ¿cuál es el principio de la conversación que produce ese placer?

Conversar es acoger. Un modo de la hospitalidad humana. Y para lo cual deben crearse las condiciones ‘domiciliarias’ tanto de un ‘tiempo libre’ (disponible)  como de un espacio ‘aquietado y al margen del trajín’ (página 90-91)

Estas posibilidades de desvío, y lo que muestran en él (acoger, estar disponible) son centrales, porque -finalmente- Giannini nos mostrará que la libertad se juega en ello. El tiempo jugado solamente a la preocupación cotidiana (en el trámite ferial) es, finalmente, un tiempo degradado: ‘Incapacidad de acoger; conciencia inhóspita’ (página 191). Pero la acogida sin condiciones al Otro (página 192) es la virtud básica de lo humano y lo que permite que la cotidianidad pueda desplegarse en plenitud.

Y esto, en parte, porque -como dijimos- al final tiene que ver con la libertad del propio ser.

La libertad, en el sentido de ‘disponibilidad de Sí’, más que con el que hacer tiene que ver con un dejar ser; con este hecho profundamente negativo: el de ser un despeje de Sí mismo, de sus quehaceres, de sus ocupaciones. Liberación del arrastre de una identidad exclusivamente domiciliaria; cotidiana disponibilidad, en fin, para que aquello que Pasa y nos llama desde su ser cualitativo, sin promesas de recompensa’ (página 159).

Estar disponible a lo que está fuera de uno, es entonces la marca de la libertad cotidiana. Vivir la vida cotidiana como cierre, que no deja de ser la experiencia común, es una forma de empobrecer y empequeñecer el mundo.

Un mundo que, por cierto, es más pequeño y más pobre ahora que Humberto Giannini no está con nosotros.

En Apología de Robert K. Merton

Si algo caracterizó a los clásicos de la Sociología fue el hecho que no escribieron, en general, tratados teóricos generales, sino más bien diversas investigaciones específicas (La División del Trabajo, La Ética Protestante) junto a una serie de escritos más bien metodológicos (Las Reglas, Conceptos Fundamentales). Hay que esperar a Parsons para que un autor central en la tradición escriba directamente tratados de teoría o de exégesis (La Estructura de la Acción Social o el Sistema Social).

Todo ello para decir que, dentro del funcionalismo -que nos guste o no ha sido la aproximación sociológica más exitosa- quién más se acercó al procedimiento de los clásicos fue Robert Merton. Y en ese sentido, se puede defender que Merton fue, en no pequeña medida, el responsable de ese éxito. Y esto por un motivo más bien simple. Para que un paradigma tenga éxito ha de mostrar como se puede aplicar a múltiples problemas de investigación. Y en su capacidad para usar el funcionalismo para explorar temas, para iluminar problemas, en su capacidad para desarrollar las ideas del funcionalismo, superar algunas insuficiencias y en darle vueltas a esas ideas, en otras palabras, para mostrar la fecundidad para investigar del modelo, pocos se le acercaron. Pocos se le han acercado en cualquiera de los marcos teóricos y de investigación en Sociología. Fue uno de los responsables centrales de transformar el funcionalismo de un conjunto de ideas en un programa de investigación potente.

Es cosa de recordar los temas: Funciones manifiestas y latentes, anomia, sociología de la ciencia, profecía autocumplida, la idea general de teorías de alcance medio etc. En el caso sólo de la sociología de la ciencia, sus aportes van desde una ampliación de la tesis de Weber de la ética al caso de la influencia protestante en la ciencia, a la idea del efecto Mateo, a una caracterización de cómo funcionan las comunidades científicas, a estudios sobre la adjudicación de los descubrimientos etc. La fecundidad de las ideas de Merton es una muestra relevante de cómo transformar unas afirmaciones generales en una máquina para hacer investigación.

A varias décadas del triunfo y decadencia del funcionalismo podemos decir, con alguna certeza, que las ideas del funcionalismo no resultaron muy correctas, y que bueno fue su reemplazo. Sin embargo, no se puede negar su capacidad para producir investigación social y para producir conocimiento. En ese sentido, felices las aproximaciones teóricas que puedan tener un Merton para mostrar su potencia para la investigación, y es una lástima para nuestra disciplina que trayectorias como las suyas resulten algo escasas.

La Potencia de lo Social

No deja de ser algo curioso que los sociólogos, y no deja de ser común en general entre cientistas sociales o la población común, tengan una visión más bien negativa del hecho social como tal: La vida social es siempre una limitación, y cuando se descubre que algo es producto de una convención social eso mismo es motivo para su crítica. Dado que lo social sería variable y no universal (o al menos, lo que hubiera de universal no se debe al hecho social sino a otras consideraciones, digamos determinismos biológicos o de otra especie) entonces no hay mayor valor en sí. Seremos Rousseaunianos y pensaremos que la sociedad sólo pone cadenas en las personas y por ello es negativo, o Hobbesianos y pensaremos que la sociedad pone cadenas y por ello es positiva.

El caso es que, al fin y al cabo, lo social es finalmente potencia (y no en vano ya van 30 años de teoría social indicando que las instituciones limitan y permiten, digamos Giddens decía eso en The Constitution of Society, del cual efectivamente se cumplen 30 años el 2014). Mas aún, es claro, y Edward O. Wilson ha tenido a bien recordarlo recientemente en The Social Conquest of Earth (2012) la vida social es una estrategia altamente exitosa a todo nivel en la biología.

Pensemos en el caso de la ciencia. Cuando los sociólogos dicen e insisten que la ciencia es una actividad social es, precisamente, para -al mismo tiempo- quitarle fuerza a ella: Eso implica que no es objetiva, que reproduce más bien la doxa de lo social. Ser objetivo y ser social serían atributos contrapuestos.

Pero eso, a decir verdad, no tiene el menor sentido. La ciencia es una actividad intensamente social y precisamente por eso es tremendamente eficaz y poderosa en producir conocimiento sobre el mundo (de hecho, no estoy diciendo nada nuevo, es la mitad de los argumentos finales de The Poverty of Historicism de Popper). La ciencia, claramente, es una actividad académica que requiere la participación de muchos -no es algo individual. Quién escribe papers no puede hacerlo sin referirse a la literatura existente sobre el tema, y construye sobre ella (para no hablar del hecho que tampoco se investiga sólo). Y cómo nos recuerda Ramos en El Ensamblaje de Ciencia y Sociedad (2012) he ahí la perspectiva de Luhmann, que no es sólo para decir que hay un teórico que basa su análisis de la ciencia en eso, sino que nos permite darnos cuenta que eso es lo que diferencia a la ciencia de otros elementos. El análisis de Bourdieu sobre campos es útil, pero se aplica igualmente a cualquier actividad social, la lógica del poder funciona de la misma forma, y el interés específico del campo lo identifica y diferencia pero no cambia su operación. Pero sí es algo que distingue a la ciencia el hecho básico de la constitución vía relaciones sociales (vía la referencia a otras investigaciones que es la cita y la revisión de literatura) del conocimiento.

La constitución de la República de las Letras a principios de la modernidad, la intensa correspondencia vía cartas de los científicos y posteriormente (y desde el inicio) la generación de revistas científicas son parte de las actividades que efectivamente permiten que la ciencia despegue en la Europa de los siglos XVII-XVIII. Otras civilizaciones contaron con estudiosos observadores de la realidad, personas con una mirada naturalizante del mundo, o con altas habilidades técnicas y alto rigor. Pero era la constitución de un sistema de comunicaciones lo que diferenció el surgimiento de la ciencia (e incluso la Astronomía, que al fin y al cabo, estaba ya constituida con anterioridad a ese despliegue, es también un lugar donde las comunicaciones para establecer hechos y observaciones ya se había desarrollado -necesito una comunidad para realizar todas las observaciones pertinentes).

La construcción de los datos es una actividad conjunta, y precisamente porque es conjunta es que funciona: Si cada investigador tuviera que partir de 0 y crear todos sus datos y material, claramente jamás se terminarían de constituir datos más o menos objetivos. Es la actividad social de múltiples científicos que trabajan a partir de lo que otros hacen lo que permite plantear que la alquimia no tenía sentido y la fuerza de gravedad no, que los dragones no existen pero sí animales con un solo cuerno, no es algo que fuera evidente al inicio de las investigaciones -donde antes de realizarlas toda posibilidad es efectivamente posible.

Si la ciencia tiene eficacia, y si permite conocer de alguna forma el mundo es precisamente porque es una de las actividades más sociales en existencia. En última instancia, sólo porque es social es que ha permitido la generación de conocimiento que supera con creces a lo que cualquier individuo puede producir o comprender. La vida social nos permite hacer cosas que simplemente no podemos hacer cada uno por su cuenta, nos permite hacer más cosas. Lo que no deja de ser, para recordar a quién se ha transformado en mi pensador favorito, puro Spinoza -y de hecho, es buena parte de la interpretación de Negri al respecto en la Anomalía Salvaje: Que pensamos lo social en términos de poder (potestas) y no de potencia (potentia).