Resumen

Este artículo aborda el significado y los alcances de la educación como un derecho humano, para lo cual se exponen algunos conceptos centrales como son los principios de los derechos humanos y las dimensiones del derecho a la educación. Desde ese paradigma, presenta un breve panorama de la educación obligatoria en México, y se centra en las condiciones escolares que, de acuerdo a una evaluación realizada por el Instituto Nacional para la Evaluación de la Educación (INEE) a fines de 2014, presentan las escuelas primarias del país. Se plantea como conclusión la necesidad de que todas las escuelas de México cuenten con un conjunto irreductible de condiciones que garanticen un mínimo de oportunidades de aprendizaje para todos los estudiantes.

Palabras clave: derecho a la educación, condiciones escolares, escuelas primarias, desigualdad educativa.


How Right Is the Right to Education in México?

This article approaches the meaning and the reaches of education as a human right. For this purpose we will be touching central principles such as human rights and the right to educationon. From this paradigm we will present a brief panorama of obligatory education in México, focusing on elementary school conditions as stated in the 2014 Report on Education Evaluation by the National Institute for the Evaluation of Education. We propose as conclusion the need to enforce all Mexican schools have an irreducible set of conditions that guarantee a minimum of learning opportunities for all students.

Keywords: right to education, school conditions, elementary schools, educational inequality.

La educación como un derecho humano


La reforma al artículo 3° constitucional, que se llevó a cabo en 2013, introdujo el reconocimiento de la educación de calidad como un derecho humano que, como tal, debe cumplir con los cuatro principios de los derechos humanos: universalidad, indivisibilidad, interdependencia y progresividad. Si bien este artículo no tiene la intención de profundizar en aspectos jurídicos, consideramos importante recordar brevemente su significado.

La universalidad se refiere a que, al ser inherentes al ser humano, los derechos deben garantizarse para todos, sin distinciones de ningún tipo (credo, etnia, ideología, género, etcétera), ya que todas las personas son iguales en dignidad y derechos; la indivisibilidad alude a que no pueden protegerse unos derechos y otros no, pues los derechos humanos son todos derechos, no pueden priorizarse o jerarquizarse; la interdependencia refiere a la relación que existe entre los derechos humanos, por lo que de afectarse uno, se impacta sobre otros derechos (en el caso de la educación, el cual se considera un derecho clave o habilitante (Latapí, 2009), su incumplimiento afecta el acceso a otros derechos como al trabajo, la alimentación, la salud y la vivienda); por último, la progresividad significa que cada vez deben ofrecerse más y mejores condiciones para el ejercicio de los derechos, y en ningún caso debe haber regresividad o reversibilidad.1


Visto así, el derecho a la educación es para todas las personas, independientemente de su contexto o condición, y con su cumplimiento deben protegerse también otros derechos. Como en cualquier derecho humano, es el Estado el responsable de promover, respetar, proteger y garantizar su cumplimiento, esto es, diseñar las políticas públicas y acciones para hacerlos efectivos.

¿Pero qué significa el derecho a la educación? El derecho a la educación no significa solamente el derecho a ir a la escuela –que es la institución del Estado mediante la cual se ofrece educación a la población– ya que si así fuera bastaría con que se dispusieran escuelas suficientes para todos. El derecho a la educación significa tanto el acceso a la escuela como su permanencia en ella y, sobre todo, el derecho a aprender y adquirir las competencias necesarias para que se alcancen las finalidades sociales de la educación. Esto implica que la educación debe tener ciertas características.


La primera relatora especial de las Naciones Unidas para el derecho a la educación, Katarina Tomasevski (2004), definió cuatro dimensiones del derecho a la educación, las cuales se conocen como el esquema de las 4 A: asequibilidad, accesibilidad, aceptabilidad y adaptabilidad. La asequibilidad se refiere a la disponibilidad de servicios educativos, que es el nivel más básico para garantizar el derecho a la educación; la accesibilidad significa el acceso efectivo a las escuelas, es decir, que no haya barreras de ningún tipo que impidan que alguien llegue y transite por la escuela; la aceptabilidad cualifica los servicios educativos, al señalar que éstos deben cumplir con determinados estándares de calidad (como maestros con formación adecuada, materiales educativos pertinentes, escuelas con infraestructura suficiente y que brinde seguridad a los estudiantes, etcétera); y, por último, la adaptabilidad, significa que los servicios educativos deben adaptarse a las características de la población y no al revés, es decir, tomar las medidas necesarias para atender con pertinencia a estudiantes migrantes, indígenas, a quienes no hablan la lengua de instrucción, a quienes presentan alguna discapacidad, etcétera.

Breve panorama del derecho a la educación en México

En México, la educación se ofrece en los siguientes tipos y niveles educativos.

Esquema 1. Estructura del Sistema Educativo Nacional


Fuente: INEE (2017a).


El sistema educativo mexicano es uno de los más grandes del mundo, con más de 30 millones de estudiantes, 1.5 millones de docentes y poco más de 240 mil escuelas o planteles en la educación obligatoria, esto es, en los tipos básico y medio superior2 (INEE, 2017a). Con estas cifras es posible ver que hemos avanzado en asequibilidad y accesibilidad de la educación obligatoria, sobre todo en educación básica. Las cifras más recientes disponibles (agosto de 2017), advierten que las tasas de matriculación3 a nivel nacional son superiores al 80% para los niños y niñas de 3 a 5 años, de 6 a 11 y de 12 a 14, y de 65% para los de 15 a 17 años; en estos grupos de edad el porcentaje de estudiantes que tiene un avance regular4 es superior a 92% (INEE, 2016a). Aunque los datos son alentadores, como es sabido, la menor cobertura educativa se tiene en las poblaciones en situación de vulnerabilidad social: migrantes, indígenas y personas con discapacidad.5

Donde, sin duda, tenemos los mayores retos –y que es en lo que se pretende enfocar lo que resta de este artículo–, es en la aceptabilidad y la adaptabilidad de la educación, es decir, en la forma como operan y funcionan las escuelas.

Condiciones escolares de las escuelas primarias6


Cuando hablamos de condiciones escolares probablemente pensamos en equipamiento como computadoras, pizarrones electrónicos, materiales multimedia y espacios escolares “de primera”: laboratorios equipados, biblioteca con acervos diversos, auditorios, canchas para practicar múltiples deportes; esto es porque consideramos que otras condiciones básicas “están dadas”. Pero probablemente sorprenda a muchos saber que la mitad de las escuelas primarias del país tienen menos de seis maestros, es decir, no hay maestros para atender en grupos separados a estudiantes de un mismo grado, es más, una de cada ocho escuelas primarias generales o indígenas del país sólo tienen un docente, que es el maestro de todos los estudiantes de los seis grados y además el director de la escuela –este último dato no considera las escuelas de modalidad comunitaria, que son en su gran mayoría unitarias– (INEE, 2016a).7


Otros datos que reflejan las condiciones en que operan las escuelas primarias en México son los siguientes: el 45% de las escuelas tiene los servicios básicos de agua, luz y drenaje; al 13.7% de escuelas les faltan aulas para atender a todos los grupos; el 18.7% no tiene tazas sanitarias para uso exclusivo de estudiantes. A uno de cada cuatro grupos de los últimos tres grados de primaria, les falta pizarrón en su salón de clases o el que tienen no funciona adecuadamente; poco más de un tercio de escuelas cuentan con libreros o estantes adecuados para guardar y exponer los materiales de la biblioteca escolar; en menos de una de cada cuatro escuelas hay acceso a internet para todos los miembros de la comunidad escolar; sólo uno de cada tres docentes que imparten la asignatura de lengua indígena, cuentan con el libro para el maestro de esa asignatura, y sólo en uno de cada cuatro grupos de estudiantes de 4°, 5° y 6° grado que cursaban esta asignatura los estudiantes recibieron el libro de texto (INEE, 2016c, 2016d y 2016e).8


Lo anterior ocurre porque no se han distribuido de la misma manera los recursos, porque contrario a un principio de equidad que llevaría a que el Estado ofreciera los mejores recursos a las poblaciones más desfavorecidas, ha tendido a concentrar las mejores condiciones en las zonas urbanas, donde en efecto hay más estudiantes, pero también es donde los niños y niñas tienen más oportunidades extraescolares para aprender. En cambio, en el campo, en las localidades pequeñas y dispersas y en las comunidades indígenas, es donde hay las mayores carencias educativas, incluso en algunas regiones no hay ni siquiera escuelas, por lo que los niños tienen que caminar diariamente a otras localidades para poder estudiar. Mostremos tres gráficas para apreciar estas diferencias.

Gráfica 1. Porcentaje de grupos de 4°, 5° y 6° de primaria donde todos los estudiantes tienen mueble en buenas o regulares condiciones para sentarse y escribir: nacional y por tipo de escuela


Fuente: INEE (2016c).
Informante: Docente/LEC.

Gráfica 2. Porcentaje de grupos de 4°, 5° y 6° de primaria según la proporción de estudiantes que cuenta con un juego completo de libros de texto: nacional y por tipo de escuela



Fuente: INEE (2016c).
Informante: Docente/LEC.

Gráfica 3. Porcentaje de escuelas que reportaron estudiantes con discapacidad o necesidades educativas especiales y escuelas donde se informó que se cuenta con apoyo de personal especializado* para su atención: nacional y por tipo de escuela**



Fuente: INEE (2016c).
Informante: Director.
*Psicólogo, terapeuta de lenguaje, especialista en discapacidad, asesor pedagógico, apoyo de USAER.
**Se excluyen de la gráfica las escuelas comunitarias.

Las gráficas anteriores permiten notar que las mayores carencias de condiciones escolares están en las escuelas comunitarias, indígenas y generales multigrado, y que las brechas entre los distintos tipos de servicio son amplias, lo que muestra la manera tan desigual con que opera la educación en nuestro país.


Con la finalidad de orientar políticas educativas que aseguren un “piso mínimo común” de oportunidades educativas para todos los estudiantes del país, el Instituto Nacional para la Evaluación de la Educación (INEE) diseñó la Evaluación de condiciones básicas para la enseñanza y el aprendizaje (ECEA), la cual utiliza como referente un marco básico de condiciones sobre cómo y con qué deben funcionar mínimamente todas las escuelas en México, con base principalmente en lo que la misma normatividad y la política educativa establecen. Este marco básico está conformado por siete ámbitos y 21 dimensiones (ver tabla 1).

Tabla 1. Ámbitos y dimensiones que incluye la ECEA


Una descripción muy sucinta de lo que evalúa la ECEA se puede encontrar en: http://www.inee.edu.mx/images/stories/2015/ecea2015/ECEA21201.pdf.


Los cuatro primeros ámbitos se refieren a recursos que, en el caso de las escuelas públicas del país, el Estado provee, es decir, corresponde a la autoridad educativa la responsabilidad de asegurar su cumplimiento. Los últimos tres ámbitos son procesos cuya responsabilidad principal recae en las propias comunidades escolares, aunque se reconoce que existe una interrelación entre ellos (por ejemplo, si la escuela no cuenta con espacios físicos para el trabajo colaborativo entre docentes, que es una condición de infraestructura, se afectará el trabajo colegiado, que alude a una condición de organización escolar). Al referirse a condiciones básicas o mínimas, el marco básico de la ECEA es indivisible, lo que significa que debe asegurarse el cumplimiento de todas y no sólo de algunas de las condiciones.

Si el lector quiere conocer más de esta evaluación lo invitamos a entrar al micrositio: http://www.inee.edu.mx/index.php/proyectos/ecea, así como ver este video:



Reflexiones finales

El derecho a la educación es más que el acceso y disponibilidad de servicios educativos; incluye la calidad de las condiciones y servicios con que se ofrecen. Ir a la escuela es necesario, pero no suficiente para el ejercicio pleno de este derecho, que implica en última instancia el derecho a aprender cosas relevantes para la vida.


En general en México, las escuelas en los contextos más pobres son las que tienen condiciones más precarias y ofrecen menor bienestar y oportunidades de aprendizaje a sus estudiantes; a estas escuelas no sólo no se les provee de mayores apoyos para subsanar las desventajas sociales, sino que ni siquiera se les da lo mismo que a otras ubicadas en contextos más favorables. Esto muestra la inequidad y la desigualdad en la oferta educativa.

Las escuelas deben ofrecer igualdad de oportunidades para todos los estudiantes, cuando menos deben asegurar condiciones básicas para funcionar. Las condiciones básicas son “irreductibles”, y por tanto necesarias para la enseñanza y el aprendizaje; por ello deben atenderse en conjunto y para todas las escuelas. De lo contrario el derecho a la educación seguirá siendo un privilegio de algunos y no un derecho de todos.

1 Existe múltiple literatura sobre este tema, en la bibliografía se incluyen dos referencias con acceso digital tanto para una lectura ligera sobre el tema (texto de la CNDH) como para una más especializada (Vázquez y Serrano, s/f).

2 En 2012 se declaró obligatoria la educación media superior en el país.

3 La tasa de matriculación es un indicador que se refiere al porcentaje de niños, niñas y adolescentes de cada grupo de edad que está matriculado en la escuela, independientemente del nivel educativo y grado.

4 El avance regular es un indicador que considera los niños, niñas y adolescentes matriculados en el grado escolar ideal de acuerdo a su edad o en uno inferior o uno superior.

5 Muestra de ello es que, en tanto a nivel nacional, la escolaridad de la población de 15 años y más es de 9.4 años, para ese mismo grupo de edad en la población jornalera agrícola migrante es de 4.5, para la población hablante de una lengua indígena de 5.7 y para las personas con discapacidad de 5.1 (INEE, 2016b, 2017b y 2017c).

6 El nivel educativo de primaria es el que tiene el mayor número de escuelas, docentes y estudiantes del sistema educativo mexicano.

7 Esto no necesariamente es así por insuficiencia de docentes, pero sí porque se anteponen criterios de eficiencia (número de estudiantes por docente) a los pedagógicos y de justicia social.

8 Para las poblaciones indígenas es un derecho humano recibir educación en su propia lengua.


Bibliografía

Meet the Dolls. Camry (2017). Naturally Perfect Dolls. Recuperado de <https://www.naturallyperfectdolls.com/pages/camryn>.

Comisión Nacional de Derechos Humanos (2016). Los principios de universalidad, interdependencia, indivisibilidad y progresividad de los derechos humanos. México: autor. Disponible en: <http://www.cndh.org.mx/sites/all/doc/cartillas/2015-2016/34-Principios-universalidad.pdf>.

INEE (2016a). Panorama Educativo de México 2015. Indicadores del Sistema Educativo Nacional. Educación básica y media superior. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/B/114/P1B114.pdf>.

INEE (2016b). Directrices para mejorar la atención educativa de niñas, niños y adolescentes de familias de jornaleros agrícolas migrantes. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/F/103/P1F103.pdf>.

INEE (2016c). Reporte general de resultados de la Evaluación de Condiciones Básicas para la Enseñanza y el Aprendizaje (ECEA) 2014 / Primaria. México: INEE. Disponible en: <http://www.inee.edu.mx/images/stories/2016/ecea/resultadosECEA-2014actualizacion.pdf>.

INEE (2016d). Infraestructura, mobiliario y materiales de apoyo educativo en las escuelas primarias. ECEA 2014. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/D/244/P1D244.pdf>.

INEE (2016e). La Educación Obligatoria en México. Informe 2016. Capítulo 2: Condiciones escolares para la enseñanza y el aprendizaje en la educación primaria. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/I/241/P1I241.pdf>.

INEE (2016f). Evaluación de Condiciones Básicas para la Enseñanza y el Aprendizaje desde la perspectiva de los derechos humanos. Documento conceptual y metodológico. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/E/201/P1E201.pdf>.

INEE (2017a). Principales cifras. Educación básica y media superior. Inicio del ciclo escolar 2015-2016. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P2/M/108/P2M108.pdf>.

INEE (2017b). La educación obligatoria en México. Informe 2017. Capítulo 3: Oportunidades educativas de niñas, niños y adolescentes con discapacidad. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P1/I/242/P1I242.pdf>.

INEE (2017c). Breve panorama educativo de la población indígena. Día Internacional de los Pueblos Indígenas. México: INEE. Disponible en: <http://publicaciones.inee.edu.mx/buscadorPub/P3/B/107/P3B107.pdf>.

Latapí, P. (2009). El derecho a la educación: su alcance, exigibilidad y relevancia para la política educativa. Revista Mexicana de Investigación Educativa, 14(40). Disponible en: <http://www.comie.org.mx/v1/revista/portal.php?idm=es&sec=SC03&&sub=SBB&criterio=ART40012>.

Tomasevski, K. (2004). Indicadores del derecho a la educación. Revista IIDH, 40. Disponible en: <https://revistas-colaboracion.juridicas.unam.mx/index.php/rev-instituto-interamericano-dh/article/view/8220/7368>.

Vázquez, L. D. y Serrano, S. (s/f). Los principios de universalidad, interdependencia, indivisibilidad y progresividad. Apuntes para su aplicación práctica. Disponible en: <https://archivos.juridicas.unam.mx/www/bjv/libros/7/3033/7.pdf>.

COMENTARIOS

Raquel Ahuja Sánchez
INEE.


Es Licenciada en Psicología por el Instituto Tecnológico y de Estudios Superiores de Occidente (ITESO), estudió la maestría en Psicología general experimental con énfasis en Salud en la Facultad de Psicología de la Universidad Nacional Autónoma de México (UNAM) y cursó un año del Doctorado en Derechos Humanos en la Universidad Nacional de Educación a Distancia (UNED) de España. En 1992 inició como investigadora y evaluadora en el campo de la educación, habiendo trabajado en el Centro de Estudios Educativos y en el Instituto de Investigaciones Multidisciplinarias en Educación de la Universidad Iberoamericana. A partir del 2000 se incorporó al servicio público ocupando diversos cargos directivos dentro de la Secretaría de Educación Pública. Actualmente trabaja en el Instituto Nacional para la Evaluación de la Educación (INEE), desde el 2012, donde ocupa la Dirección General de Evaluación de la Oferta Educativa.

Actualizado hasta septiembre, 2017.


Ahuja Sánchez, Raquel (2017). “¿Qué tan derecho es el derecho a la educación en México?”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a1>.
Facelet Title

Resumen

  La ciencia de datos es una disciplina emergente y de gran pertinencia para todas las organizaciones que deseen codificar el valor oculto e intangible de sus datos. Hoy más que nunca estamos más conectados con personas y dispositivos, tenemos acceso a más redes y servicios, y sin duda consumimos y producimos mayores cantidades de datos e información. Por lo que requerimos contar con las habilidades, conocimientos, experiencias y técnicas de los científicos de datos para procesar, analizar y visualizar de formas más inteligentes los datos en información, promoviendo así, más y mejores conocimientos de nuestra realidad en sus contextos. En este artículo se explican las principales áreas en las que desarrolla un científico de datos (Big Data, minería y visualización de datos) y las intersecciones entre éstas; se incluyen ejemplos de proyectos desarrollados por científicos de datos y del gran valor que han sabido codificar. Además, se presenta una interpretación de los elementos que constituyen al científico de datos. Palabras clave: científico de datos + ciencia de datos + Big Data + minería de datos + visualización de datos.  

Data scientist: encoding the hidden and intangible value of the data

Data science is an emerging discipline of great relevance to all companies that wishing to encode the hidden and intangible value of data. Today more than ever we are connected to more people and devices, we have access to more networks and services, and not there are doubt that we consume and produce greater amounts of data and information. So we require the skills, knowledge, experiences and techniques of data scientists to process, analyze and visualize the data toward information in smarter ways, promoting more and better knowledge of their reality in their contexts. This article explains the main areas in which a data scientist develops (Big data, data mining and data visualization) and the intersections between these, including examples of projects developed by data scientists and the great value that they have known how to code it. In addition, to present an interpretation of the elements that constitute the scientific data. Keywords: data scientist + data science + Big Data + data mining + data visualization.
 

Introducción

 
Las organizaciones deben saber aprovechar al máximo la información y explorar de manera inteligente cómo pueden beneficiarse del análisis de los datos que generan sus usuarios, operaciones, productos o servicios.
Actualmente todos los que navegamos en Internet somos, en cierta medida y de acuerdo a las proporciones, consumidores y/o productores de datos e información. En éste mismo esquema podemos concebir a las compañías que tienen presencia en Internet en dos grandes grupos, están las que apostaron por la democratización de sus servicios a través de Internet y posibilitaron que los usuarios pasaran de ser sólo consumidores a también ser productores de información y contenidos, entre las más representativas están Google, YouTube, Facebook, Twitter, Instagram, Waze, Airbnb, entre otras tantas. También están las que ofrecen principalmente el servicio de consumo de información y contenidos, como es el caso de Netflix, Amazon, Spotify y YouTube por mencionar algunas. Sin importar de qué compañía se trate, se dieron cuenta que estaban almacenando grandes cúmulos de datos y lejos de verlo como un problema de escalabilidad1 –por sí mismo significa un reto e inversiones millonarias–, identificaron un problema todavía mayor: cómo dotar de significado a los datos que registran los usuarios en sus sistemas, ya sea de manera consciente o inconsciente, y no sólo eso, sino cómo obtener un conjunto procesado y estructurado de datos que posibilitan una mejor comprensión teórica o práctica de la realidad en menor tiempo. Con el registro de la huella digital2 de los usuarios se pueden identificar sus preferencias e intereses, deseos de compra, tendencias y frecuencia de consumo, horarios de interacción, redes sociales, ubicación de conexión, dispositivos utilizados, entre otros tantos identificadores. Las organizaciones deben saber aprovechar al máximo la información y explorar de manera inteligente cómo pueden beneficiarse del análisis de los datos que generan sus usuarios, operaciones, productos o servicios. No hay que olvidar que ahora, más que nunca, el recurso intangible más valioso en nuestros tiempos es el poder de la información y del conocimiento que obtengamos de éste.
 

Un mundo más conectado

  Estamos en tiempos donde la conexión a múltiples sistemas de información es innegable, cada vez nos conectamos a más servicios y somos más dependientes de éstos. El paradigma ha cambiado en pocos años, tal como lo advierten Hilbert y Lopez (2011), hemos pasado de ser analógicos a ser digitales, lo que ha propiciado que estemos conectados desde diferentes dispositivos, a toda hora y desde cualquier lugar. Como resultado vivimos en un mundo cada vez más conectado, donde la inmediatez de la información se ha convertido en una necesidad de primer orden para hacer negocios, establecer relaciones sociales, consumir contenidos multimedia e incluso, estudiar en modalidades no tradicionales. La siguiente infografía hace un recuento del crecimiento que han tenido algunas de las principales aplicaciones y servicios en Internet en los tres últimos años. Nos ayuda a tener un referente de la magnitud de datos que llegan a manejar estas grandes compañías, por ejemplo: en 2016, YouTube reporta que en su plataforma cargan 500 horas de vídeo cada 60 segundos, por lo que al término del año suman 262.8 millones de horas de vídeo, es decir, para poder ver todo el contenido cargado en un año en YouTube se requerirían 30 000 años. Y los datos siguen creciendo año tras año.3
¿Qué sucede en línea cada 60 segundos? Fuente: Smart Insigts. Recuperado de: https://goo.gl/jiaDX2.
  El ingeniero de datos en Facebook, Paul Butler (2010) interpretó muy bien el refrán “una imagen vale más que mil palabras”, ya que a finales del 2010 desarrolló el ejemplo más claro que tenemos hasta el momento sobre la visualización de un mundo más conectado. Butler tomó una muestra de 10 millones de pares de amigos en Facebook y los combinó con sus datos de ubicación (latitud y longitud), generando así la siguiente visualización de datos:
Interconexión de Facebook en el mundo. Fuente: http://fbmap.bitaesthetics.com/.
  En el artículo “40 maps that explain the internet” de Timothy B. Lee (2014), publicado en el sitio Vox, podrán consultar diferentes mapas e información sobre la evolución y conexión que ha tenido Internet desde sus inicios.
 

El valor subestimado de los datos

  Las compañías como Google, Facebook y Twitter gastan increíbles cantidades de dinero para mantener sus sistemas, sin embargo, los usuarios finales no son quienes pagan directamente esos gastos, en lugar de ello proveen contenido a la vez que son objeto de ambiciosas campañas publicitarias, lo que significa que otras compañías están pagando los costos de infraestructura a cambio de obtener datos de los usuarios (Van der Aalst, 2014). Para Twitter existen aplicaciones web donde se calcula el valor que tiene una cuenta, lo cual es un estimado con base al número de seguidores que tengas, la cantidad de personas que te siguen, los tweets que escribes y la velocidad con la que ganas seguidores. Por ejemplo, al hacer la prueba en los sitios twalue.com y tweetvalue.com reportaron que mi cuenta en Twitter (@jgmorenos) está valuada en $18.47 y $44 dólares, respectivamente. Recientemente el analista Cakmak (2017), analizó el valor que tiene para Twitter la cuenta de Donald Trump (37.4 millones de seguidores con más de 35 mil Tweets) y la calculó en 2 mil millones de dólares. Hay que considerar que estos valores son estimaciones y habrá que tomarlos con reserva, pero al menos son una invitación para reflexionar y no subestimar el valor que tienen los datos. Son varios los casos de éxito en donde las compañías se han beneficiado por codificar el valor oculto que tienen sus datos, para así mejorar sus productos y servicios, principalmente. Por ejemplo, Netflix ha sabido utilizar bien sus datos, pues tiene como objetivo principal: “ayudar a sus suscriptores a encontrar el contenido que realmente disfrutan, maximizando así su satisfacción y retención” (Elahi, 2015, p. 4). Desde sus inicios en 1997, con el servicio de renta y envío de DVD por correo postal, le dio una gran importancia a los datos de sus usuarios y en 2000 comenzó a desarrollar lo que sería su primer algoritmo (Cinematch) para crear un sistema que permitiera recomendar contenido de alto interés para cada uno de sus suscriptores. En el 2006, Netflix abrió su algoritmo a la comunidad científica y ofreció una recompensa de 1 millón de dólares para quién(es) lograran mejorar en un 10% su capacidad predictora, tuvieron que pasar tres años para que el grupo BellKor’s Pragmatic Chaos logrará resolverlo. En 2007 comenzó con su servicio de descarga y reproducción (streaming) de películas y series, y después de seis años lograron recopilar suficientes datos para predecir con seguridad el éxito de su primera producción original “House of Cards”. Éste es un claro ejemplo de cómo ser exitosos codificando datos y lograr que una serie obtenga alto interés de parte de los usuarios. El sitio statista.com reportó que en el segundo cuatrimestre de 2017 Netflix tiene 103.9 millones de suscriptores a nivel mundial, de los cuales procesa en promedio 695 mil millones de eventos por día, es decir, una base de datos de 1.8 Petabytes diarios.4 Algunos de los eventos registrados por Netflix son:
  • ¿Desde dónde se conectan?
  • ¿A través de qué dispositivo?
  • ¿En qué horarios se conectan?
  • ¿El tipo de contenido (película, serie) varia con el dispositivo?
  • ¿Ven los créditos?
  • ¿Cuánto tardan en ver el contenido?
  • ¿Cuáles son sus actores y directores favoritos?
  • ¿Qué y cómo califican?
  • ¿Qué buscan?
  • Etcétera.
Sin una gran cantidad de datos, no hubiera sido posible que Netflix siguiera entrenando sus sistemas de recomendación. Se necesita contar con una gran serie de datos históricos para poder analizar todas las posibles combinaciones, y así identificar patrones y tendencias que permitan tener algoritmos más robustos al momento de hacer las recomendaciones a sus suscriptores. Y tal como la misma compañía advierte “alrededor del 75% de la visualización en Netflix es impulsada por el algoritmo de recomendación” (Vanderbilt, 2013).
 

Científico de datos

  Imagen: OpenClipart-Vectors. El considerado padre del “management”, Peter Drucker (2004), reconoció que la sociedad postcapitalista es una sociedad basada en el conocimiento, donde el centro de la producción de la riqueza es el saber y no el capital. Los protagonistas claves en esta economía del conocimiento serán los “trabajadores del conocimiento”, es decir, los que posean las capacidades, las habilidades, el pensamiento creativo y la tecnología para procesar, analizar y visualizar las grandes bases de datos. Los “trabajadores del conocimiento” que menciona Drucker, son los que ahora ya tienen un perfil más claro y se les conoce como científicos de datos, en ellos recae la responsabilidad de entender en su máxima expresión los datos y sus relaciones, con el objetivo de tomar decisiones más informadas a la vez que mejoran los productos y servicios de las organizaciones. Davenport y Patil en su artículo “Data Scientist: The sexiest job of the 21st century” (2012), definieron por primera vez el concepto de científico de datos y con ello generaron una gran revolución. De acuerdo con las estadísticas obtenidas de scholar.google.com, el artículo ha sido citado 568 veces y se han producido 15 versiones diferentes. Además de definir quién es un científico de datos, presentan un decálogo para encontrar el científico de datos correcto, explican cuáles son los intereses del profesional y de los cuidados que deberán tener las empresas para conservarlos. En términos generales, el científico de datos combina estadística, matemáticas, programación y solución de problemas, con la captura datos de forma ingeniosa y la capacidad de mirar las cosas de manera diferente (encontrar patrones), además de hacer las actividades propias de limpieza, preparación e integración de datos (Monnapa, 2017). De acuerdo con la encuesta que realizó la compañía Crowd Flower (2017) a 179 científicos de datos seleccionados en todo el mundo, identificó la distribución de las actividades que les toma mayor tiempo en su quehacer, las cuales se distribuyen de la siguiente manera:
  • 51% colectar, etiquetar, limpiar y organizar los datos.
  • 19% construir y modelar los datos.
  • 10% el modelado de datos para patrones.
  • 9% refinar algoritmos.
  • 8% otras actividades.
Entre las actividades que más disfrutan, están: construir y modelar los datos, aplicar minería de datos para encontrar patrones y el refinar algoritmos. Entre las que menos gustan, están: limpiar y organizar datos, etiquetarlos y colectarlos. El 51% de los encuestados reportó que trabajan con datos no estructurados. Los datos con los que trabajan provienen principalmente de los sistemas internos de las compañías en las que trabajan, seguido de los que colectan de forma manual y, por último, de los conjuntos de datos disponibles públicamente. Son tres las áreas en las que se desarrollan principalmente los científicos de datos:
  • Big Data para procesar datos,
  • Minería de datos para analizar e identificar relaciones ocultas, patrones y tendencias,
  • Visualización de datos para explicar y socializar mejor la información obtenida.
También existe una amplia gama de técnicas y software especializado que el científico de datos utiliza para desarrollarse en cada una de las áreas, de las cuáles se pueden clasificar por herramientas de extracción, almacenamiento, limpieza, minería, visualización, programación, análisis e integración de datos. En la siguiente figura se presentan las habilidades, los conocimientos y la experiencia que debe poseer el científico de datos, así como una muestra del software especializado y técnicas que existe por sus áreas de desarrollo.
El científico de datos y su entorno. Fuente: elaboración propia.
  A continuación, se hace una breve descripción de cada una de las áreas e intersecciones que se muestran en la figura, a la vez que se mencionan algunos ejemplos de proyectos que realizan los científicos de datos.

Big Data

Los investigadores Cox y Ellsworth (1997) de la Administración Nacional de la Aeronáutica y del Espacio (NASA por sus siglas en inglés), fueron los primeros en utilizar el término Big Data en un artículo científico, en el que señalaron el problema al que se enfrentaban al visualizar y el procesar grandes cantidades datos, así como las limitantes técnicas de las computadoras (gráficos, memorias y almacenamiento) que tenían en esos tiempos. Ha sido un término que, al igual que su nombre, ha tenido una gran aceptación en todas las industrias y son muchas las definiciones que existen al respecto,5 en particular me gusta definir el concepto de Big Data como: el gran cúmulo de datos compuesto por diferentes tipos, estructuras y relaciones de datos, que a su vez tienen veloces tasas de generación y dispersión, y el procesarlos con tecnologías convencionales para su posterior análisis es parte del problema (Big Problem). De acuerdo con Van der Aalst (2014), utiliza el término Internet of Events (IoE) para referir a todos los datos disponibles en Internet. Y los clasifica de la siguiente manera:
  • Internet of the Content (IoC). Es toda la información creada por los seres humanos para aumentar el conocimiento sobre temas particulares. Incluye páginas web tradicionales, artículos, enciclopedias como Wikipedia, YouTube, libros electrónicos, noticias, etcétera.
  • Internet of the People (IoP). Son todos los datos relacionados con la interacción social. Es decir, correo electrónico, Facebook, Twitter, foros, LinkedIn, etcétera.
  • Internet of the Things (IoT). Son todos los objetos físicos conectados a la red. Son todas las cosas que tienen una identificación única y una presencia en una estructura similar a Internet. Las cosas pueden tener una conexión a Internet o estar etiquetados usando identificación por radio frecuencia (RFID por sus siglas en inglés), proximidad a campos de comunicación (NFC por sus siglas en inglés), etcétera.
  • Internet of the Locations (IoL). Refiere a todos los datos que tienen una dimensión espacial. Con la adopción de dispositivos móviles (por ejemplo, teléfonos inteligentes) cada vez más eventos tienen atributos geoespaciales.
Es importante contar con este marco de referencia, ya que es una buena forma para clasificar la generación del Big Data por tipos de eventos.

Minería de datos

En términos sumamente prácticos la minería de datos la podemos definir como a la extracción de conocimientos de grandes cantidades de datos. Han y Kamber (2006), hacen una interesante crítica al concepto de minería de datos: “la extracción de oro de las rocas o la arena se conoce como minería de oro en lugar de minería de roca o arena. Por lo tanto, la minería de datos debería haber sido más apropiadamente llamada minería del conocimiento a partir de datos. Sin embargo, la minería es un término vívido que caracteriza al proceso de encontrar un pequeño conjunto de preciosas pepitas en una gran cantidad de materia prima” (p. 5).
En términos sumamente prácticos la minería de datos la podemos definir como a la extracción de conocimientos de grandes cantidades de datos.
La minería de datos tiene dos referentes principales. Al primero se le conoce como el proceso de descubrimiento de conocimiento en bases de datos (mejor conocido por sus siglas en inglés, KDD), que fue promovido en 1989 por iniciativa de Shapiro y Smyth (1996) y está definido por cinco etapas (selección, pre-procesamiento, transformación, minería de datos e interpretación/evaluación). El segundo es el proceso estándar de la industria para la minería de datos (mejor conocido por sus siglas en inglés, CRISP-DM), el cual fue concebido en 1996 y define seis fases en su proceso (comprensión del negocio, comprensión de datos, preparación de datos, modelado, evaluación e implementación) (Wirth y Hipp, 2000). La minería de datos en principio trabaja sobre todo tipo de datos. Los estructurados se refieren a las bases de datos relacionales (filas y columnas claramente identificadas); los semiestructurados son los que tienen un tipo de estructura implícita, pero no como para ser automatizada como la estructurada (datos espaciales, temporales y textuales); los no estructurados son los que principalmente provienen de sitios en Internet y son del tipo multimedia (imágenes, audio y videos). Los dos últimos se identifican con la minería de textos y la minería web, respectivamente. Entre las principales técnicas que se utilizan en la minería de datos, están: regresión lineal, estimación de densidad, reconocimiento de patrones, series de tiempo, árboles de decisión, estadística Bayesiana, redes neuronales, aprendizaje supervisado y no supervisado, k vecinos más próximos (K-NN), sistemas de recomendación, modelos predictivos, teoría de juegos, aprendizaje profundo, entre otros más. Para mayor información de cada una de las técnicas, se sugiere revisar a Granville (2016).

Visualización de datos

La visualización de datos es considerada por algunos como una ciencia y hay quienes la clasifican como un arte, cuando en realidad es una combinación de ambas. Sus principales precursores justo provienen de las ciencias exactas, que han tenido la necesidad de recurrir al campo de la creatividad y del arte, con el propósito de representar con fines estéticos algún aspecto de la realidad. Imagen: mcmurryjulie. La visualización de datos sólo tendrá éxito en la medida que nuestros ojos codifiquen la información para poder discernirla y nuestros cerebros la pueden entender. El objetivo es traducir de maneras fáciles, eficientes, precisas y decodificadas la información abstracta en representaciones visuales significativas (Few, 2013). La visualización de datos ayuda al usuario a examinar una gran cantidad de datos e identificar patrones o tendencias con la ayuda de gráficas o representaciones. Una sola gráfica puede codificar mucha más información que la que se puede presentar en varias hojas de texto (Pujari, 2001, p. 48). La visualización de datos que ahora conocemos ha sido desarrollada a lo largo de la humanidad, siempre ha existido la necesidad de abstraer y comunicar información. Desde siglo II d. C. se han organizado los datos en tablas (columnas y filas), pero la idea de representar gráficamente la información cuantitativa surgió hasta el siglo XVII, cuando el filósofo y matemático francés René Descartes desarrolló un sistema de coordenadas bidimensional para mostrar valores. A finales del siglo XVIII, el ingeniero y economista William Playfair encontró el potencial de los gráficos para la comunicación de datos cuantitativos, definió muchos de los gráficos que se utilizan actualmente (barras y líneas en función del tiempo), incluso inventó el gráfico circular (pastel). Cabe señalar que este tipo de gráfico ha sido objeto de muchas críticas por parte de los especialistas en el área de visualización de datos y percepción. Por ejemplo, Few (2013) ha demostrado que es ineficaz, ya que codifica los valores como atributos visuales (áreas y ángulos), lo que impide percibir y comparar fácilmente. El trabajo del cartógrafo Jacques Bertin fue fundamental, pues descubrió que la percepción visual opera según reglas que se pueden seguir para expresar visualmente la información de manera intuitiva, clara, precisa y eficiente. El profesor de estadística en Princeton, John W. Tukey,6 dio forma a un nuevo enfoque estadístico llamado análisis exploratorio de datos, y fue quien realmente introdujo el poder de la visualización de datos como un medio para explorar y dar sentido a los datos cuantitativos. El estadístico y artista Edward R. Tufte publicó en 1983 el libro The Visual Display of Quantitative Information, mismo que revolucionó las formas eficaces de mostrar los datos visualmente. El matemático William S. Cleveland con la publicación de sus libros The Elements of Graphing Data y Visualizing Data hizo grandes aportaciones en cuanto a las técnicas que utilizan los estadísticos para la visualización de datos. En 1999, los investigadores Stuart Card, Jock Mackinlay y Ben Shneiderman acuñaron una nueva especialidad “visualización de la información” y publicaron el libro Information Visualization, Using Vision to Think, en el que recopilan mucho del trabajo académico que se había realizado hasta ese momento, y a nuestros días es uno de los principales referentes de la visualización de datos e información (Few, 2013). Actualmente el término visualización de datos es el más aceptado entre la comunidad científica de datos,7 pero en lo particular prefiero el término visualización de la información, ya que las actuales visualizaciones se hacen en al menos dos dimensiones con múltiples atributos y relaciones, por lo que no podemos estar hablando de visualización de datos, ya que de ser así se limitaría a mostrar numerosos elementos en una sola dimensión.

Relación 1. Big Data y minería de datos

Debe existir una estrecha relación entre ambas áreas, ya que los algoritmos y modelos de entrenamiento y prueba desarrollados por el área de minería da datos deberán ser implementados en los grandes cúmulos de datos (Big Data), sobre todo cuando se tiene una amplia serie de datos históricos. Un ejemplo de lo anterior, es el artículo: “Applying Data Mining Techniques to Identify Success Factors in Students Enrolled in Distance Learning: A Case Study” (Moreno y Stephens, 2015). El artículo analiza, con técnicas de minería de datos, los perfiles de ingreso, antecedentes académicos y matrícula de los alumnos del Sistema Universidad Abierta y Educación a Distancia (SUAyED), de la Universidad Nacional Autónoma de México (UNAM), con el propósito de determinar los factores clave que impulsan el éxito y el fracaso de los alumnos, así como la creación de su respectivo modelo predictivo usando el algoritmo de clasificación Naive Bayes.
Imagen: geralt.

Relación 2. Big Data y visualización de datos

La relación entre el área de Big Data y la visualización de datos es la que busca definir la mejor interpretación y visualización de grandes cúmulos de datos y sus relaciones, de forma que al usuario le resulte más fácil entenderlos. En la mayoría de los casos se queda en la descripción de los datos en diferentes dimensiones y en algunos, incluyen interactividad a sus relaciones. A continuación, se presenta una muestra de ejemplos:
  • Referencias cruzadas de la biblia (Harrison, 2007). Es un proyecto en el que se analiza, en la parte inferior de la visualización, todos los capítulos de la biblia en un gráfico de barras, los cuales alternan entre los colores blanco y gris claro. La longitud de cada barra denota el número de versos en el capítulo. Cada una de las 63 779 referencias encontradas en la biblia está representada por un solo arco y el color corresponde a la distancia entre los dos capítulos, creando un efecto similar al arco iris.
  • Temperaturas del clima (Carli, 2013). Al superponer datos meteorológicos históricos, ésta visualización muestra cómo la temperatura evoluciona durante el año en diferentes ciudades. Al establecer una banda de zona de confort, es posible ver cuando la temperatura está por encima, dentro o debajo de la zona; tanto a lo largo del año como a través de los días de cada temporada. Es un claro ejemplo de una visualización interactiva.
  • Población mundial (Carli, 2014). Es un proyecto de visualización interactiva realizado para el Banco Mundial donde cada usuario al digitar su fecha de nacimiento puede compararse con los datos de la población mundial (7.2 mil millones de personas al 2014), y saber cuántas personas nacieron el mismo día y a la misma hora. Al final presenta de manera ordenada la posición por la edad que tenga el usuario y la compara con la población mundial.

Relación 3. Minería de datos y visualización de datos

La minería y la visualización de datos también pueden trabajar en una dimensión donde no necesariamente se procesen un gran cúmulo de datos (Big Data), se pueden implementar proyectos para una cantidad mesurada de datos, donde se apliquen algoritmos y con éstos obtengamos un producto. A continuación, se muestran algunos ejemplos:
  • FLEET: Distribución e Inventario de Unidades (Moreno, 2017a). Es un proyecto realizado para una empresa especializada al arrendamiento de vehículos, en el que se analiza el número de unidades que ha comprado por estado, municipio y concesionaria (agencia). Además, la visualización permite seleccionar los modelos de los vehículos, por segmento y rango de precios. Cabe señalar que todos los datos están relacionados y permiten la interacción.
  • Gasolid: Identificador de Gasolineras en México (Moreno, 2017b). Es un proyecto que permite medir el nivel de confianza en las gasolineras mexicanas. Para lograrlo, se relacionaron bases de datos de la Procuraduría Federal del Consumidor (PROFECO) y Petróleos Mexicanos (PEMEX), además de correr procesos de geolocalización para identificar las direcciones de las estaciones de servicio. De acuerdo a la selección aplicada (estado, municipio y código de la estación de servicio), es posible ubicar a las gasolineras e identificar en nivel de confianza en éstas, así como el historial que ha tenido en los últimos cuatro años sobre el número de mangueras verificadas e inmovilizadas.

Relación 1, 2 y 3. Big Data, minería y visualización de datos

El científico de datos puede interactuar en cualquiera de las tres áreas (Big Data, minería y visualización de datos) y en sus respectivas intersecciones (1, 2 y 3), siempre y cuando posea las habilidades, conocimientos, técnicas y experiencia para lograr dar respuesta a las necesidades de las organizaciones en términos de codificar mejor sus datos. Drinking Data (Ratti, 2014). Es un proyecto que integra todas las áreas de la ciencia de datos y sus intersecciones, fue desarrollado por investigadores del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés). La pregunta que detonó el desarrollo del proyecto fue: ¿podemos encontrar algún valor en la enorme cantidad de información registrada por las máquinas dispensadoras de refrescos enlatados? Considerando que en los Estados Unidos existen 15 000 máquinas dispensadoras y que cada una puede despachar 150 latas únicas. En cada transacción se registra una cadena de datos: hora, ubicación y preferencias del usuario (Big Data). Con éstos datos se visualizaron patrones de consumo total y se encontraron altos consumos de bebidas los fines de semana y lo contrario, durante los días entre semana (Visualización de datos). Con toda la explotación de los datos pudieron entender mejor lo que sucede: el analizar los dispensadores individualmente mostró características inesperadas (Minería de datos).
 

Conclusiones

  El inicio de la era Web 2.0 fue un momento crucial para las organizaciones que supieron beneficiarse de los datos que dejaban registrados los usuarios en sus plataformas (huella digital), por lo que hubo un incremento en la oferta de aplicaciones web –y sus respectivas versiones para teléfonos inteligentes–, ya que reconocieron el valor oculto e intangible que podían codificar de los datos de sus usuarios, tan sólo hay que recordar: “si no pagas por el producto, tú eres el producto” (Van der Aalst, 2014, p. 19). Imagen: JuralMin. El sitio statista.com8 reportó, a marzo del 2017, que Google Play y Apple Store, administran 2.8 y 2.2 millones de aplicaciones, respectivamente. Por lo anterior, es que los científicos de datos se han convertido en especialistas de gran importancia para cualquier industria, ya que ofrecen servicios y productos hechos a la medida para cada uno de sus usuarios. La advertencia es: las compañías que no utilicen sus datos inteligentemente no serán competitivas y en el peor de los casos, no sobrevivirán. Los científicos de datos se pueden especializar en cualquiera de las tres principales áreas (Big Data, minería de datos y visualización de datos), lo que ha propiciado que todas las industrias tengan una alta demanda por especialistas en estas áreas. IBM (2017) recientemente reportó que para el 2020 el número de empleos para todos los profesionales de datos en EUA aumentará en 364 mil, alcanzando un total de 2.7 millones de empleos. El científico de datos viene a dar solución a las preguntas, ¿cómo almacenar los datos?, ¿cómo analizar y obtener valor de los datos? y ¿cómo visualizar y comunicar lo que nos quieren decir los datos? Todo lo anterior en términos de eficacia, eficiencia y veracidad. Por otro lado, Van der Aalst (2014), sugiere que el científico de datos responderá a las preguntas ¿qué paso?, ¿por qué paso?, ¿qué sucederá?, ¿qué es lo mejor que puede pasar?, las cuales, en mi opinión, sólo corresponden a el área de la minería de datos. El Big Data ayuda a dar solución al gran problema que existe respecto al volumen, la variabilidad y la velocidad de los datos. El propósito de la minería de datos es pasar del volumen de datos hacia la información, para después el conocimiento y, por último, llegar al valor de la decisión. Concluyo que debemos tener mucho cuidado con las diferentes visualizaciones de datos que ofrecen los diferentes softwares especializados, ya que existe el riesgo de hacer representaciones ineficaces de la información e incluso, nos podemos dejar llevar por gráficos muy elaborados presentados en diferentes dimensiones y que a simple vista parecen ser muy atractivos, cuando en la realidad dejan de lado la exploración y comunicación útil de la información y sólo presentan una estética superficial. La visualización no tiene límites, se puede representar cualquier tipo de dato con sus atributos, elementos y relaciones, todo dependerá de la creatividad para abstraer dicha información y presentarla de formas más inteligentes.
 
1 Para mayor información sobre la propiedad de escalabilidad de los sistemas, revisar: https://es.wikipedia.org/wiki/Escalabilidad.
2 Para mayor información sobre el concepto de huella digital, revisar: https://www.internetsociety.org/es/tu-huella-digital.
3 Para mayor información sobre lo que actualmente está sucediendo en Internet, se recomienda visitar el sitio: http://www.internetlivestats.com/.
4 Cálculos realizado con base a lo publicado en: https://goo.gl/eFhQQa.
5 La escuela de información de Berkeley, reunió 40 definiciones provenientes de los líderes en las diferentes industrias, ver en: https://goo.gl/P69x3v.
6 Considerado como uno de los investigadores más importantes de la estadística moderna.
7 Comparativo entre “data visualization” e “information visualization”, en Google Trends: https://goo.gl/1xoNHi.
8 Número de aplicaciones para teléfonos inteligentes, ver en: https://goo.gl/tCnPXW.
 

Bibliografía

 
Butler, P. (2010). Visualizing Friendships. Facebook: Facebook Enginering. Recuperado de <https://goo.gl/AaHLN>. Cakmak, J. (2017). What Is Trump Worth to Twitter? One Analyst Estimates $2 Billion. Fortune.com. Recuperado de <https://goo.gl/AdjDQz>. Carli, L. (2013). Weather Temperatures. Vis.design. Recuperado de <https://goo.gl/sgDNsS>. Carli, L. (2014). The World Population Project. Vis.design. Recuperado de <https://goo.gl/jSgpEx>. Cox, M. y Ellswort, D. (1997). Managing Big Data for Scientific Visualization. ResearchGate.net. Recuperado de <https://goo.gl/DLj8sd>. Crowd Flower (2017). Data Scientist Report 2017. Crowdflower.com. Recuperado de <https://goo.gl/4XsUKD>. Davenport, T. H. y Patil, D. J. (2012). Data Scientist: The Sexiest Job of the 21st Century. Harvard Business Review, 90 (10). Recuperado de <https://goo.gl/65IMw1>. Drucker, P. F. (2004). La sociedad postcapitalista. Medellín, Colombia: Norma Elahi, E. (2015). Spark and GraphX in the Netflix Recommender System. SlideShare. Recuperado de <https://goo.gl/LUQqx4>. Few, S. (2013). Data Visualization for Human Perception. En M. Soegaard (2nd Ed.), The Encyclopedia of Human-Computer Interaction. Aarhus, Denmark: The Interaction Design Foundation. Recuperado de: <https://goo.gl/7uYrrp>. Granville, V. (2016). 40 Techniques Used by Data Scientists. datasciencecentral.com. Recuperado de <https://goo.gl/UmCb9M>. Han, J. y Kamber, M. (2006). Data Mining Concepts and Techniques. Recuperado de <https://goo.gl/jmXNua>. Harrison, C. (2007). Bible Cross-References. Chrisharrison.net. Recuperado de <https://goo.gl/21DsY>. Hilbert, M. y Lopez, P. (2011). The world’s technological capacity to store, communicate, and compute information. Science, 332(6025), 60–65. IBM (2017). The Cuant Crunch: How the Demand for Data Science Skills is Disrupting the Job Market. Ibm.com. Recuperado de <https://goo.gl/yJ6GtL>. Monnappa, A. (2017). Data Science vs. Big Data vs. Data Analytics. Simplilearn.com. Recuperado de <https://goo.gl/EAYQRc>. Moreno, G. S., Stephens, C. R. (2015). Applying Data Mining Techniques to Identify Success Factors in Students Enrolled in Distance Learning: A Case Study. Advances in Artificial Intelligence and Its Applications: Springer. Recuperado de <https://goo.gl/zFLHtJ>. Moreno, G. S. (2017a). FLEET: Distribución e Inventario de Unidades. Publictableau.com. Recuperado de <https://goo.gl/Db5eXr>. Moreno, G. S. (2017b). Gasolid: Identificador de Gasolineras en México. Publictableau.com. Recuperado de <https://goo.gl/26iX9C>. Pujari, A. K. (2001). Data Mining Techniques. Hyderabad, India: Universities Press. Ratti, C. (2014). Drinking Data. senseable.mit.edu: MIT Senseable City Lab. Recuperado de <https://goo.gl/QkJ4iw>. Shapiro, G. P., Smyth P. (1996). The KDD Process for Extracting Useful Knowledge from Volumes of Data. Communications of the ACM. Volumen (39, 11), 27-34. Recuperado de <https://goo.gl/L67PYa>. Van der Aalst, W. M. P. (2014). Data Scientist: The Engineer of the Future. Enterprise Interoperability, volume 7, 13-28. Springer. Recuperado de <https://goo.gl/yiaE9F>. Vanderbilt, T. (2013). The Science Behind the Netflix Algorithms That Decide What You’ll Watch Next. Wired. Recuperado de <https://goo.gl/aqJqA7>. Wirth, R., Hipp, J. (2000). CRISP-DM: Towards a Standard Process Model for Data Mining. ResearchGate.com. Recuperado de <https://goo.gl/XevGEB>.

COMENTARIOS

José Gerardo Moreno Salinas
Maestro en Ingeniería de Sistemas por la Universidad Nacional Autónoma de México (UNAM) e Ingeniero en Sistemas Computacionales por el Instituto Tecnológico de Ciudad Guzmán (ITCG). Cabe señalar que mientras estudió la maestría fue seleccionado para representar a nivel nacional a los alumnos del posgrado de Ingeniería en la quinta edición de la Cumbre de Negocios; su proyecto de tesis de licenciatura recibió el reconocimiento de servicio a la comunidad por la Universidad del Norte de Texas. Ha cursado diplomados sobre tecnologías de la información en la UNAM y cursos de actualización relacionados con la ciencia de datos. Se certificó en el manejo del software Tableau en Philadelphia. Es experto en el manejo de técnicas cuantitativas para la toma de decisiones, matemáticas, estadística y ciencia de datos; el diseño de instrumentos de evaluación y la puesta en línea de bases de datos interactivas. Al respecto, ha publicado en revistas de difusión y divulgación de la ciencia, así como en revistas especializadas y capítulos de libros. Ver más…

Actualizado hasta septiembre, 2017.

 
Moreno Salinas, José Gerardo (2017). “Científico de datos: codificando el valor oculto e intangible de los datos ”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a2>.  

Resumen

Las “ómicas” son las ciencias que permiten estudiar un gran número de moléculas, implicadas en el funcionamiento de un organismo. En las últimas décadas, el avance tecnológico ha permitido el estudio a gran escala de muchos genes, proteínas y metabolitos, permitiendo la creación de la genómica, proteómica, metabolómica, entre otras. Cada una de estas áreas ha ayudado a un mejor entendimiento de la causa de ciertas enfermedades. Además, la aplicación del conocimiento sobre las “ómicas” a la clínica podrá utilizarse para hacer un diagnóstico más temprano o para prevenir el desarrollo de una enfermedad. Así, la medicina se podrá convertir en medicina personalizada, donde cada individuo llevará un tratamiento para una determinada enfermedad acorde a su información genética y a su medio ambiente. En este artículo se define a cada una de las “ómicas”, la metodología que se usa para su análisis y un ejemplo de su aplicación clínica.

Palabras clave: ácido desoxirribonucleico (ADN), ácido ribonucleico (ARN), proteínas, metabolitos, ciencias “ómicas”.


The “omics” sciences, how does this help health sciences?

“Omics” are defined as a group of disciplines that aim to collect a large number of biological molecules involved in the function of an organism. In the last decades, technological evolution allowed us to better understand global changes in genes, proteins and metabolites, giving rise to genomics, proteomics, metabolomics, among others. These fields have contributed to the generation of knowledge regarding the cause of diseases. The application of the “omics” to the clinics could help diagnose or prevent certain diseases. In the future, treatment will be specific for each patient according to their genetical background and environment exposure, creating personalized medicine. This article defines every –omic, the technological tools used for its analysis, and examples of its clinical applications.

Keywords: DNA (deoxyribonucleic acid), RNA (ribonucleic acid), proteins, metabolites, “omics” sciences.

Introducción

Historia del ADN


El ADN está formado por la unión de nucleótidos formados por bases nitrogenadas (adenina, guanina, citosina, timina), un azúcar (desoxirribosa) y ácido fosfórico. La combinación de estos nucléotidos da origen a los genes, los cuales guardan la información genética.
Toda la información genética que heredamos de nuestros padres se encuentra en el genoma, que está formado por el ácido desoxirribonucleico (ADN) y que se localiza en el núcleo de las células de nuestro organismo. El ADN, que mide aproximadamente dos metros de longitud, se superenrolla para caber en el núcleo que mide seis micras. Para esto, el ADN se ordena en cromosomas, de los cuales el ser humano tiene 22 pares de somáticos y un par de los sexuales (cromosomas X y Y).

En 1944, Oswald Avery, Colin MacLeod y MacLyn McCarty descubrieron que el ADN es el “principio de transformación” o material genético (Avery, MacLeod y McCarty, 1944). Sin embargo, la comunidad científica de aquella época exigía más información sobre dicho material genético, por lo cual, diversos investigadores continuaron en la búsqueda de pruebas y fueron Alfred Hershey y Martha Chase (1952) quienes demostraron definitivamente que el ADN es la molécula que guarda la información genética heredable. Posteriormente, en 1953, Watson y Crick describieron la estructura del ADN, la cual está formada por dos cadenas complementarias que se unen en direcciones inversas (1953). Sin embargo, fue hasta 1977, que se logró decodificar o secuenciar por primera vez el ADN, lo cual quiere decir que se estableció el orden de los nucléotidos de un fragmento de ADN. Esto asentó los fundamentos para el análisis y secuenciación del genoma. Sin embargo, debido al desarrollo científico y tecnológico que se logró en los años siguientes, fue que en 2001 se logró secuenciar el genoma humano (Venter et al., 2001).

Dogma central de la biología molecular

Se conoce como el dogma central de la biología molecular a la forma como fluye la información genética del ADN, desde su paso por el ácido ribonucleico mensajero (ARNm) y hasta llegar a las proteínas.

El ADN está formado por la unión de nucleótidos formados por bases nitrogenadas (adenina, guanina, citosina, timina), un azúcar (desoxirribosa) y ácido fosfórico. La combinación de estos nucléotidos da origen a los genes, los cuales guardan la información genética. A partir de los genes, se lleva a cabo la transcripción, mecanismo por el cual el ADN se convierte a ARNm. Finalmente, la traducción permitirá que el ARNm se convierta en una proteína.

Por lo tanto, se puede decir que el ADN es un archivero en el que se guarda toda la información. El ARNm es el mensajero que lleva la información del archivero a donde se va a utilizar. Finalmente, esa información es utilizada por los obreros, correspondientes a las proteínas (véase figura 1). Cabe mencionar que el ADN se replica para que a partir de una célula madre, se generen dos células hijas conteniendo el mismo material genético.


Figura 1. El ADN es como un archivero que contiene la información que el mensajero distribuye para que se lleve a cabo la síntesis de proteínas (o que actúe el obrero).

Un gen es un fragmento de ADN que contiene la información genética. Las regiones que separan a los diferentes genes se llaman regiones intergénicas. Un gen está conformado por diversas partes como el promotor, exones e intrones, principalmente. El promotor es la secuencia del gen que es reconocida por la maquinaria de transcripción para convertir el ADN a ARNm. Los exones son las secuencias del ADN que dan origen a la proteína. Estos exones pueden estar interrumpidos por los intrones, que son regiones que pueden regular la transcripción de los genes. El ARNm maduro sólo estará formado por la secuencia de los exones, la cual va a ser traducida para sintetizar una proteína (véase figura 2).


Figura 2. Los exones se traducen para sintetizar las proteínas.

El ADN se encuentra en todos los núcleos de las células del organismo y es exactamente el mismo, por lo que, se puede extraer ADN de la sangre, cabello, saliva o cualquier célula, obteniendo la misma información genética. Sin embargo, el ARNm es diferente, ya que a partir del ADN que tienen todas las células, se transcribe solamente el ARNm que necesita una célula determinada, para posteriormente ser traducido a la proteína que ejercerá la función en dicha célula. Por lo tanto, el ARNm y las proteínas son dinámicas y son específicas de tiempo, tratamientos y de células.

El ADN del humano está formado por tres billones de nucleótidos que contiene alrededor de 30 000 a 40 000 genes, donde entre 1 y 2% del genoma son regiones codificantes y el resto no codifican para una proteína, pero regulan la presencia del ARNm o expresión de los genes (Harrow et al., 2012).

“Ómicas”: generalidades de análisis de muchos datos

En los últimos años ha existido un gran avance en el desarrollo de la tecnología, lo cual ha provocado que se generen equipos analíticos que logran identificar y medir muchas moléculas. Esto ha ido de la mano con la creación de grandes computadoras, que permiten el almacenamiento de gran cantidad de información, de igual manera, el desarrollo de software ayuda al análisis de los datos generados. Todo esto ha dado como resultado el análisis de diferentes moléculas (ADN, ARN, proteínas, etcétera) y la creación de redes de interacción entre ellas para comprender con más exactitud a los sistemas biológicos complejos.

En los años 1980, el término “ómica” se acuñó para referirse al estudio de un conjunto de moléculas. Por ejemplo, genómica se refiere al estudio de muchos genes en el ADN; transcriptómica es el estudio de muchos transcritos o ARNm; proteómica es el estudio de muchas proteínas; metabolómica es el estudio de muchos metabolitos, entre otros.1

Antes, los químicos y biólogos realizaban la parte experimental de su investigación y análisis de una o pocas moléculas que se podían estudiar en laboratorios. Gracias al avance de la tecnología y de las herramientas de análisis, se incrementó el número de moléculas detectables al mismo tiempo, por lo que se han formado grupos multidisciplinarios constituidos por biólogos, químicos, médicos, programadores, bioinformáticos, bioestadísticos, que juntos colaboran para la interpretación de todos los datos recabados.

Al aumentar el número de moléculas a analizar fue necesario acrecentar también el tamaño de muestra para mantener un poder estadístico válido. Es por esto que se crearon biobancos tales como el de UK Biobank (biobanco del Reino Unido), para el cual se reclutaron a 500 000 individuos y se tomaron muestras de sangre, orina y saliva para su análisis posterior. Este tipo de biobancos ayudará a las diversas disciplinas “ómicas” en su estudio de las enfermedades para mejorar el diagnóstico, prevención y tratamiento de las mismas.

A continuación, se describe brevemente lo que estudia cada “ómica”, así como la metodología empleada para su análisis y alguna aplicación en la clínica. Es importante hacer notar que los datos que se obtienen de cada una no nos permiten conocer completamente un sistema biológico. Sólo la integración de varias de éstas y la relación que existe entre ellas, nos es útil para conocer globalmente a dichos sistemas.

Genómica

La genómica fue la primera “ómica” en crearse, esta ciencia se encarga del estudio del genoma o ADN. Anteriormente, la tecnología permitía estudiar pocos genes, así como sus cambios o mutaciones, a lo que se le denominaba genética. Sin embargo, la tecnología avanzó y a principios del siglo XXI se reportó la secuencia del genoma humano (Venter et al., 2001), lo que quiere decir que se descifró el orden de todos los nucleótidos contenidos en el ADN del humano (International Human Genome Sequencing Consortium, 2004). La secuencia del genoma reveló que 99% del genoma entre humanos es el mismo y sólo 1% es diferente. Estas diferencias son llamadas variantes de un solo nucleótido (SNV por sus siglas en inglés), anteriormente llamados polimorfismos de un solo nucleótido o SNP (véase figura 3). Estas variantes son frecuentes y confieren susceptibilidad o protección para desarrollar enfermedades.


Figura 3. Polimorfismos de un solo nucleótido.

Anteriormente, se estudiaban fragmentos de ADN y su localización en los diferentes cromosomas por medio de metodologías de hibridación in situ con fluorescencia (FISH). De esta forma era posible señalar cierto fragmento del ADN, conteniendo uno o varios genes, el cual era el causante de una enfermedad, debido a la depleción, duplicación, inversión y translocación cromosómica de dicho fragmento de ADN. Posteriormente, surgió la secuenciación con el método Sanger que consiste en replicar la región del genoma de interés por medio de cebadores específicos y utiliza dideoxinucleótidos marcados radioactivamente que posteriormente evolucionaron a marcaje fluorescente. Estos nucleótidos marcados al ser incorporados en la nueva cadena amplificada, finalizarían la reacción permitiendo conocer el último nucleótido de dicha reacción y establecer la secuencia del ADN. Esta metodología se desarrolló en los la década de 1970 y se acopló a estrategias de secuenciación a gran escala, lo que permitió realizar la secuenciación del genoma humano en 2001; sin embargo, estas metodologías eran muy costosas.

El avance de la tecnología ha permitido crear nuevos métodos para reducir costos y obtener secuenciaciones masivas, creando la “secuenciación de siguiente generación”, volviendo más accesible su uso. En la actualidad es posible elegir qué regiones del genoma se desean secuenciar. Por ejemplo, a partir del ADN de un individuo se puede secuenciar el genoma completo, solo exones o regiones específicas del genoma (genes), con la finalidad de encontrar la región del genoma que pudiera estar afectada o mutada y ser la posible causante de alguna enfermedad.

Por otra parte, el descubrimiento de las variantes de un solo nucleótido originó que se desarrollaran otras metodologías para su identificación, como la llamada genotipificación. La genotipificación consiste en amplificar el ADN y añadir a la reacción una sonda (fragmento de 25 nucleótidos) que se pueda hibridar o unir a la variante de nuestro interés y así obtener el genotipo del individuo.


[…] el término “ómica” se acuñó para referirse al estudio de un conjunto de moléculas.
La genotipificación se puede realizar para pocas variantes de forma individual o en conjunto. Sin embargo, en la última década la tecnología desarrollada permite analizar hasta dos millones de variantes al mismo tiempo para cada individuo. Esta tecnología generó la creación de los estudios de asociación del genoma completo (genome wide association studies, GWAS). Estos estudios permiten comparar millones de variantes entre cohortes de casos y controles, resultando en la asociación de algunas variantes con la enfermedad de interés. El gran avance tecnológico, la creación de consorcios de bancos de ADN de miles de muestras de humanos, el apoyo de herramientas estadísticas y la referencia del genoma humano ha permitido descubrir variantes raras o comunes que contribuyen al desarrollo de una enfermedad (Begum et al., 2012; LaFramboise, 2009; Manolio, 2010). Sin embargo, la función de muchas de esas variantes y de los genes aledaños no se conoce (Gutiérrez et al., 2011), lo que abre el horizonte para explorar nuevas vías para entender mejor la causa de las enfermedades.

Por otra parte, la genética ha ayudado a describir enfermedades que son heredables con un patrón mendeliano, las cuales generalmente contienen mutaciones (poco frecuentes) en la parte que codifica un gen, provocando que haya un cambio funcional de la proteína y que se presente la enfermedad (por ejemplo, fibrosis quística). Sin embargo, hay enfermedades que no siguen el patrón mendeliano y se les conoce como enfermedades comunes. Es aquí donde la genómica ha permitido describir muchas variantes que están asociadas a alguna enfermedad, por ejemplo: obesidad y diabetes. Las variantes asociadas a enfermedades comunes son frecuentes (a diferencia de las mutaciones) y se presentan en regiones regulatorias de los genes y conceden susceptibilidad o protección para el desarrollo de la enfermedad.



Imagen: kropekk_pl.
Existen algunas limitantes de los estudios genómicos como son las siguientes: primero, las variantes asociadas a una enfermedad explican solamente una pequeña parte del componente heredable; en segundo lugar, las variantes pueden ser reguladas por factores ambientales independientemente de la secuencia del ADN (ver epigenómica). Es por esto que la genómica ofrece correlaciones entre las enfermedades y las variantes génicas, sin demostrar cómo esa variable puede ser causal de la enfermedad. Entonces, es necesario integrar estas correlaciones con otras “ómicas” para encontrar la función de los genes y de las variantes que los modulan, para comprender mejor la causa de la enfermedad.

Transcriptómica

El ADN se transcribe a ARNm y a éste le llamamos también transcrito. La transcriptómica es la “ómica” que se encarga de estudiar la expresión de los transcritos que provienen de diferentes genes. El ARNm es específico de cada célula y de las condiciones fisiopatológicas en determinado momento. Por ejemplo, el ARNm extraído de células del músculo será diferente a las células del hígado antes y después de comer. Es por esto que la transcriptómica se hace en tejido y en tiempo específico, ya que la transcripción es muy dinámica.

Anteriormente, se creía que gran parte del ADN que no se transcribía a ARNm, no tenía ninguna función y se consideraba ADN “basura.” Sin embargo, además del ARNm existen otros transcritos no codificantes como son: 1) los miRNA (micro ARN, secuencias de 21-25 nucleótidos) y, 2) los lncRNA (ARN largos no codificantes, >200). Estos tipos de transcritos no codificantes tienen como función regular la expresión de los ARNm codificantes. Por lo tanto, sabemos en la actualidad que estas regiones del ADN son secuencias reguladoras de la expresión de diversos genes y no son “basura”.

Las metodologías que se utilizan para analizar el ARNm son: 1) microarreglos o 2) secuenciación del ARN (RNAseq por sus siglas en inglés). Los microarreglos consisten en hibridar el ARNm de un determinado tejido a secuencias de genes previamente conocidos que se encuentran unidas a un microarreglo. De esta forma, se pueden hacer comparaciones entre casos o controles o simplemente ver qué genes se expresan mayoritariamente en ciertas condiciones. En cambio, el RNAseq consiste en secuenciar todos los transcritos presentes en esas condiciones, teniendo como consecuencia encontrar nuevos transcritos que no se conocían anteriormente y nuevos genes involucrados en un padecimiento.

En la actualidad, una de las aplicaciones de la transcriptómica es el análisis de la expresión de genes implicados en diferentes tipos de cánceres. Por ejemplo, en México se ha utilizado el microarreglo Oncotype RX, el cual mide la expresión de 21 genes involucrados en el cáncer de mama, para mejorar la toma de decisiones del tratamiento por parte del clínico tratante. Los resultados mostraron que al aislar el ARNm de una biopsia del tumor de mama e hibridándolo al microarreglo aumentó la expectativa de vida de los pacientes y redujo los costos de la enfermedad (Bargalló-Rocha et al., 2015).

Proteómica

El ARNm es traducido a proteínas (formadas por aminoácidos), las cuales están encargadas de realizar la función correspondiente del gen. La proteómica se encarga de estudiar muchas proteínas presentes en una muestra.

Una vez que las proteínas son traducidas pueden sufrir modificaciones post-traduccionales, tales como cortes, fosforilación, glucosilación, sumolización. Estas modificaciones provocan cambios estructurales que controlan la formación de complejos funcionales proteicos, regulan la actividad de las proteínas y las transforman en formas activas o inactivas. Algunos de estos cambios son señales para la estabilidad o degradación de las proteínas. La proteómica estudia a las proteínas, así como las modificaciones post-transcripcionales que las regulan. Al igual que el ARNm, las proteínas se expresan en tejido y tiempo específico, por lo que la toma de la muestra dependerá del tejido y del estadio de la fase celular de interés.

La metodología para estudiar la proteómica consiste principalmente en: 1) separar las proteínas por técnicas cromatográficas (líquidos, gases, etcétera) o electroforéticas (2D-PAGE); 2) digerir las proteínas; 3) detectar los fragmentos peptídicos (de proteínas) por espectrometría de masas, y 4) identificar las proteínas.

La aplicación de la proteómica a la clínica se encuentra en etapas tempranas; sin embargo, actualmente se utiliza para: a) identificación de proteínas en una muestra biológica; b) identificación de un perfil de proteínas comparando muestras entre casos y controles; c) determinar la interacción entre diversas proteínas y su red funcional, y d) identificar las modificaciones post-transcripcionales (Mishra, 2010). De esta forma, se lograrán encontrar biomarcadores (proteínas) que sirvan para diagnosticar enfermedades, con el fin de dar un tratamiento más adecuado en un futuro.



Imagen: OpenClipart-Vectors.
El gran esfuerzo de muchos científicos ha logrado crear el Proyecto del Proteoma Humano, que proporciona una lista de proteínas que se han encontrado en diferentes tipos celulares y órganos de adultos o de fetos. Estos datos son públicos y reporta más de 30 000 proteínas identificadas en el humano (Omenn et al., 2015).

El uso de la proteómica lo podemos ver en diferentes enfermedades como son: cáncer, diabetes, obesidad, entre otras. Por ejemplo, dentro del ámbito de la reproducción asistida, la proteómica ha sido de gran interés para analizar los gametos (óvulos y espermatozoides) e identificar proteínas que puedan ser utilizados como biomarcadores para poder seleccionar aquellos gametos que aseguren una mejor fertilización y aumentar la tasa de éxito de la reproducción asistida (Kosteria et al., 2017).

Metabolómica

Los metabolitos son aquellas moléculas que participan como sustratos, intermediarios o productos en las reacciones químicas del metabolismo. La metabolómica se define como una tecnología para determinar los cambios globales en la concentración de los metabolitos presentes en un fluido, tejido u organismo en respuesta a una variación genética, a un estímulo fisiológico o patológico (Park, Sadanala y Kim, 2015). La metabolómica nos permite analizar el perfil metabólico de una muestra, de forma cuantitativa y cualitativa. La metodología utilizada es la misma que la descrita en proteómica, en la que se pueden encontrar metabolitos específicos relacionados con el desarrollo de una enfermedad o con la respuesta a un tratamiento nutricio o farmacológico.

Recientemente, se ha logrado avanzar de forma importante en el conocimiento de la metabolómica de la obesidad y la diabetes, al asociar la concentración de ciertos metabolitos en suero y orina con un mayor riesgo de desarrollar dichas enfermedades. Estos metabolitos incluyen a varios aminoácidos, lípidos, hidratos de carbono y ácidos nucleicos.

En condiciones de obesidad, la concentración circulante de algunos aminoácidos, especialmente los de cadena ramificada (isoleucina, leucina y valina), está elevada (Chevalier et al., 2005). En población infantil mexicana se logró asociar un perfil de aminoácidos (mayor concentración de arginina, leucina/isoleucina, fenilalanina, tirosina, valina y prolina) con obesidad, con lo cual se tiene la capacidad de predecir un mayor riesgo de hipertrigliceridemia en los siguientes dos años (Moran-Ramos et al. 2017).

Por otro lado, la obesidad se caracteriza por la presencia elevada de ácidos grasos libres en suero. De hecho, se ha visto que la concentración de ácido oleico, palmítico, palmitoleico y esteárico es elevada, mientras que la concentración de etanolamina y lisofosfatidiletanolamina se encuentra disminuida en organismos obesos (Moore et al., 2014). Aunados a los ácidos palmítico, palmitoleico y esteárico, las ceramidas y el diacilglicerol son metabolitos que se encuentran aumentados en pacientes diabéticos (Fiehn et al., 2010). En lo que se refiere a los hidratos de carbono, se ha observado que los pacientes con obesidad y diabetes tienen concentraciones aumentadas de glucosa, fructosa y glicerol en suero (Fiehn et al., 2010; Moore et al., 2014).


Anteriormente, se pensaba que el ADN era una estructura simple y lineal. Sin embargo, en las últimas décadas se ha demostrado que el ADN puede plegarse formando estructuras tridimensionales que pueden regular regiones muy lejanas.
En resumen, el conjunto de metabolitos que han sido asociados a la obesidad y diabetes pueden darnos información muy valiosa sobre las vías metabólicas alteradas durante el desarrollo de estas enfermedades. Además, estos metabolitos podrán ser utilizados en un futuro como biomarcadores para el diagnóstico de una enfermedad con el fin de dar un tratamiento más adecuado correspondiente a la vía metabólica afectada o bien podrán servir como indicadores para prevenir enfermedades que se puedan presentar en un futuro.

Epigenómica

Anteriormente, se pensaba que el ADN era una estructura simple y lineal. Sin embargo, en las últimas décadas se ha demostrado que el ADN puede plegarse formando estructuras tridimensionales que pueden regular regiones muy lejanas. La secuencia de nucleótidos, entonces, no es lo único que regula la expresión génica, sino el enrollamiento del ADN y su posicionamiento durante la formación de estructuras complejas que construyen a los cromosomas.

La epigenética se refiere al conjunto de procesos por medio de los cuales se regula la transcripción de los genes sin afectar la secuencia del ADN. Los mecanismos principales por los que se llevan a cabo estas regulaciones del genoma son la adición de grupos metilo (metilación) de los nucleótidos del ADN y la metilación o adición de grupos acetilo (acetilación) de las histonas (proteínas sobre las cuales se enrolla el ADN durante la formación de los cromosomas) (Burdge y Lillycrop, 2014; Desai, Jellyman y Ross, 2015). La epigenómica representa a los cambios epigenéticos globales en una muestra, en un momento dado y en condiciones fisiopatológicas específicas. Por ejemplo, un estudio reveló que la piel que ha sido expuesta al sol sin protección tiene, en su ADN, menos grupos metilos que la piel que ha sido protegida del sol (Vandiver et al., 2015). Los mismos patrones con menor cantidad de grupos metilo se han reconocido para las células cancerosas en comparación con las células sanas. Así, la epigenómica de la exposición al sol y de la progresión del cáncer son similares; esta similitud puede ser la respuesta molecular de cómo el cáncer de piel se asocia a la exposición al sol sin protección.

Las técnicas por medio de las cuales se estudia el epigenoma son muy diversas. En primer lugar, para conocer los patrones de metilación en el ADN, se utiliza frecuentemente la “secuenciación con bisulfito”. También, se pueden emplear anticuerpos que se unan específicamente a los nucleótidos metilados para su reconocimiento (Han y He, 2016). En segundo lugar y para el caso de la modificación (metilación o acetilación) de histonas, se puede precipitar la cromatina utilizando anticuerpos que se unan específicamente a las histonas.



Imagen: GDJ.
Un ejemplo muy interesante de la aplicación de la epigenómica a la clínica es la llamada programación fetal. Esta trata del destino metabólico de los hijos que han sido expuestos a ciertas condiciones nutricias durante el desarrollo en el útero. Las investigaciones del caso de la hambruna holandesa de 1944 nos permitieron ver que los niños nacidos de madres desnutridas tenían mayor tendencia a la obesidad y enfermedades metabólicas en la vida adulta (Ravelli, Stein y Susser, 1976). Ahora sabemos que tanto la desnutrición como la obesidad de la madre en la etapa fetal influyen sobre la salud metabólica del niño, del adolescente y del adulto más adelante en la vida (Reichetzeder et al., 2016). En diversos estudios se ha concluido que la dieta materna puede regular la transcripción de genes involucrados en la formación de tejido adiposo (adipogénesis), en la producción de lípidos (lipogénesis) y en el metabolismo de la glucosa. Un ejemplo de estos genes es el que codifica para la hormona leptina. La región que regula la transcripción del gen de la leptina tiene mayor número de grupos metilo después de consumir una dieta rica en grasas. Esta metilación incrementada provoca la disminución de la expresión del gen de leptina y, como consecuencia, existe menor concentración de esta hormona en suero (Milagro et al., 2009) Debido a que la acción de la leptina es favorecer la saciedad, su menor concentración promueve mayor consumo de alimento y contribuye a la formación de tejido adiposo y como consecuencia, la obesidad.

Nutrigenómica y nutrigenética

La nutrigenómica es la herramienta que nos deja conocer, de manera global, los cambios en la expresión de genes en respuesta al consumo de un nutrimento, alimento o dieta. Por ejemplo, se sabe que el consumo de ácidos grasos poliinsaturados (AGPI) resulta en un beneficio para la salud cardiovascular. En un estudio se determinó la influencia del AGPI docosahexanoico y sus metabolitos sobre la expresión global de genes y se concluyó que los genes que participan en la formación de la placa de ateroma que bloquea las arterias se encuentra disminuida (Merched et al., 2008). A partir de este tipo de trabajos, se ha visto que la dieta participa en los cambios de expresión de genes y que modifica el metabolismo.

Por otra parte, la nutrigenética se encarga de estudiar los efectos que tiene una variante genética sobre la respuesta del individuo a los nutrimentos. Existen referencias antiguas acerca de la variabilidad interindividual en respuesta a factores dietéticos, como la del poeta y filósofo griego Tito Lucrecio (99 a.C.-55 a.C.), quien citó: “Lo que para unos es comida, es amargo veneno para otros”.

La profundización en el estudio de las enfermedades asociadas a las variantes genéticas ha generado un mejor entendimiento de la influencia de los nutrimentos y de la dieta sobre el estado de salud y enfermedad de los humanos. Un ejemplo clínico es la fenilcetonuria, la cual representa un error innato del metabolismo dado por la presencia de mutaciones en el gen que codifica para la enzima hidroxilasa de la fenilalanina (Neeha y Kinth, 2013). Como consecuencia, esta enzima no es funcional, provocando que el metabolismo de dicho aminoácido se vea afectado y se acumule el fenilpiruvato, un metabolito neurotóxico. Los pacientes con diagnóstico de fenilcetonuria deben consumir una dieta restringida en el aminoácido fenilalanina para evitar el acúmulo del metabolito neurotóxico, el cual provoca retraso mental.

Debido que la nutrigenética se basa en los cambios de variantes presentes en el ADN, los cuales influyen en la manera en que se metabolizan los nutrimentos, las metodologías utilizadas para determinar cuestiones de nutrigenética son las mismas que en genómica. Por otra parte, dado que la nutrigenómica estudia el impacto de los nutrimentos sobre la expresión de genes, las tecnologías utilizadas para su análisis son las mismas que las de la transcriptómica.

Conclusiones

Las “ómicas” representan el análisis de un gran número de moléculas a partir de muestras biológicas, gracias al avance tecnológico que se ha dado en los últimos años y a la formación de equipos multidisciplinarios que ayudan a la interpretación de los datos. La creación de los biobancos ha logrado recaudar un gran número de muestras, las cuales han sido analizadas desde las diferentes “ómicas” (genómica, transcriptómica, proteómica, metabolómica, nutrigenómica, epigenómica, entre otras) para poder obtener nueva información de un fenómeno biológico. Hasta ahora, nos hemos beneficiado de estas ciencias para la creación de biomarcadores que se asocian o predicen un proceso biológico, ya sea normal o que conlleva a una enfermedad.

Se ha logrado estudiar cada “ómica” por separado, pero el reto será interrelacionar a todas estas disciplinas. De esta forma, el estudio de las “ómicas” permitirá entender la red de moléculas y de procesos biológicos que estén involucrados en un proceso biológico o en una enfermedad. Cuando esto suceda, podremos utilizar la información para el oportuno diagnóstico de una enfermedad, para la generación de medicamentos más específicos y para la creación de la medicina personalizada, la cual busca individualizar la atención de los pacientes por medio de la predicción, prevención y tratamiento de las enfermedades, con el conocimiento de los antecedentes genéticos, la exposición ambiental y la alimentación de cada individuo.

En un futuro, los sistemas de salud podrán utilizar la información obtenida a partir de las “ómicas” para tratar los padecimientos más frecuentes de una población utilizando la medicina personalizada. Al mismo tiempo, se debe de contemplar que los datos generados por las “ómicas” deberán de respetar los aspectos éticos y legales establecidos por la legislación, con el fin de proteger el anonimato de los individuos. Por esta razón, se ha publicado recientemente una revisión del estatus de las regulaciones de los biobancos en México (Motta-Murguia y Saruwatari-Zavala, 2016).

1 Para mayor información, revisar la página http://omics.org.


Bibliografía

Avery, O. T., MacLeod, C. M., y McCarty, M. (1944). Studies on the chemical nature of the substance inducingtransformation of pneumococcal types. Journal of Experimental Medicine, 79(2), 137–158. DOI: <http://doi.org/10.1084/jem.79.2.137>.

Bargalló-Rocha, J. E. et al. (2015). Cost-Effectiveness of the 21-Gene Breast Cancer Assay in Mexico. Advances in Therapy, 32(3), 239–253. DOI: <http://doi.org/10.1007/s12325-015-0190-8>.

Begum, F., Ghosh, D., Tseng, G. C. y Feingold, E. (2012). Comprehensive literature review and statistical considerations for GWAS meta-analysis. Nucleic Acids Research, 40(9), 3777–3784. DOI: <http://doi.org/10.1093/nar/gkr1255>.

Burdge, G. C. y Lillycrop, K. A. (2014). Environment-physiology, diet quality and energy balance: the influence of early life nutrition on future energy balance. Physiology y Behavior. DOI: <http://doi.org/10.1016/j.physbeh.2013.12.007>.

Chevalier, S., Marliss, Morais, Lamarche y Gougeon (2005). Whole-body protein anabolic response is resistant to the action of insulin in obese women. American Journal of Clinical Nutrition, 82(2), 355–365. DOI: <https://www.ncbi.nlm.nih.gov/pubmed>.

Corvol, H. et al. (2016). Translating the genetics of cystic fibrosis to personalized medicine. Translational Research. DOI: <http://doi.org/10.1016/j.trsl.2015.04.008>.

Desai, M., Jellyman, J. K. y Ross, M. G. (2015). Epigenomics, gestational programming and risk of metabolic syndrome. International Journal of Obesity. DOI: <http://doi.org/10.1038/ijo.2015.13>.

Fiehn, O., Timothy Garvey, W., Newman, J. W., Lok, K. H., Hoppel, C. L. y Adams, S. H. (2010). Plasma metabolomic profiles reflective of glucose homeostasis in non-diabetic and type 2 diabetic obese African-American women. PLoS ONE, 5(12), 1–10. DOI: <http://doi.org/10.1371/journal.pone.0015234>.

Gutierrez Aguilar, R., Kim, D. H., Woods, S. C. y Seeley, R. J. (2011). Expression of New Loci Associated With Obesity in Diet-Induced Obese Rats: From Genetics to Physiology. Obesity (Silver Spring). DOI: <https://doi.org/10.1038/oby.2011.236>.

Han, Y. y He, X. (2016). Integrating epigenomics into the understanding of biomedical insight. Bioinformatics and Biology Insights. Recuperado de: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5138066/>.

Harrow, J. et al. (2012). GENCODE: The reference human genome annotation for the ENCODE project. Genome Research, 22(9), 1760–1774. DOI: <http://doi.org/10.1101/gr.135350.111>.

Hershey, A. D. y Chase, M. (1952). Independent functions of viral protein and nucleic acid in growth of bacteriophage. Journal of General Physiology, 36(1), 39–56. Reciperado de: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2147348/>.

International Human Genome Sequencing Consortium. (2004). International Human Genome Sequencing Consortium. Finishing the euchromatic sequence of the human genome. Nature, 431, 931–945. Recuperado de: <http://www.nature.com/nature/journal/v431/n7011/full/nature03001.html?foxtrotcallback=true>.

Kosteria, I. et al. (2017). The use of proteomics in assisted reproduction. In Vivo, 31(3), 267–283. DOI: <http://doi.org/10.21873/invivo.11056>.

LaFramboise, T. (2009). Single nucleotide polymorphism arrays: A decade of biological, computational and technological advances. Nucleic Acids Research. DOI: <http://doi.org/10.1093/nar/gkp552>.

Manolio, T. A. (2010). Genomewide Association Studies and Assessment of the Risk of Disease. The New England Journal of Medicine, 363(2), 166–176. DOI: <http://doi.org/10.1056/NEJMra0905980>.

Merched, A. J. et al. (2008). Atherosclerosis: evidence for impairment of resolution of vascular inflammation governed by specific lipid mediators. The FASEB Journal, 22(10), 3595–3606. DOI: <http://doi.org/10.1096/fj.08-112201>.

Milagro, F. I. et al. (2009). High fat diet-induced obesity modifies the methylation pattern of leptin promoter in rats. Journal of Physiology and Biochemistry, 65(1), 1-9. Rrecuperado de: <http://www.ncbi.nlm.nih.gov/pubmed/19588726>.

Mishra, N. (2010). Introduction to Proteomics: Principles and Applications. Introduction to Proteomics: Principles and Applications. DOI: <http://doi.org/10.1002/9780470603871>.

Moore, S. C. et al. (2014). Human metabolic correlates of body mass index. Metabolomics, 10(2), 259–269. DOI: <http://doi.org/10.1007/s11306-013-0574-1>.

Moran-Ramos, S. et al. (2017). An amino acid signature associated with obesity predicts 2-year risk of hypertriglyceridemia in school-age children. Scientific Reports. Recuperado de: <https://www.nature.com/articles/s41598-017-05765-4>.

Motta Murguia, L. y Saruwatari-Zavala, G. (2016). Mexican Regulation of Biobanks. The Journal of Law, Medicine y Ethics : A Journal of the American Society of Law, Medicine y Ethics, 44(1), 58–67. Recuperado de: <https://www.ncbi.nlm.nih.gov/pubmed/27256124>.

Neeha, V. S. y Kinth, P. (2013). Nutrigenomics research: A review. Journal of Food Science and Technology, 50(3), 415–428. DOI: <http://doi.org/10.1007/s13197-012-0775-z>.

Omenn, G. S. et al. (2015). Metrics for the human proteome project 2015: Progress on the human proteome and guidelines for high-confidence protein identification. Journal of Proteome Research, 14(9), 3452–3460. DOI: <http://doi.org/10.1021/acs.jproteome.5b00499>.

Park, S., Sadanala, K. C. y Kim, E.-K. (2015). A Metabolomic Approach to Understanding the Metabolic Link between Obesity and Diabetes. Molecules and Cells. DOI: <http://doi.org/10.14348/molcells.2015.0126>.

Ravelli, G. P., Stein, Z. A. y Susser, M. W. (1976). Obesity in Young Men after Famine Exposure in Utero and Early Infancy. New England Journal of Medicine, 295(7), 349–353. DOI: <http://doi.org/10.1056/NEJM197608122950701>.

Reichetzeder, C. et al. (2016). Developmental Origins of Disease – Crisis Precipitates Change. Cellular Physiology and Biochemistry, 39(3), 919–938. DOI: <http://doi.org/10.1159/000447801>.

Vandiver, A. R., Irizarry, R. Hansen, K, Garza, L., Runarsson, A., Li, X., Chien, A., Wang, T., Leung, S. Kang, S y Feinberg, A. (2015). Age and sun exposure-related widespread genomic blocks of hypomethylation in nonmalignant skin. Genome Biology. DOI: <https://doi.org/10.1186/s13059-015-0644-y>.

Venter, J. C. et al. (2001). The sequence of the human genome. Science, 291(5507), 1304–1351. DOI: <http://doi.org/10.1126/science.1058040>.

Watson, J. D. y Crick, F. H. C. (1953). Molecular structure of nucleic acids. Nature. DOI: <http://doi.org/10.1097/BLO.0b013e3181468780>.

COMENTARIOS

Maria Eugenia Frigolet Vázquez Vela
Hospital Infantil de México “Federico Gómez” / Facultad de Medicina, UNAM.


Realizó una estancia postdoctoral en la Universidad de Toronto y el Hospital Mount Sinai en Toronto, Canadá, especializándose en la acción de la insulina en adipocitos. Obtuvo el grado de maestría y doctorado con mención honorífica en Ciencias Bioquímicas por la Universidad Nacional Autónoma de México (UNAM); es licenciada en Nutrición y Ciencia de los Alimentos por la Universidad Iberoamerciana.

Actualmente es investigadora en Ciencias Médicas en el Laboratorio de Enfermedades Metabólicas: Obesidad y Diabetes del Hospital Infantil de México “Federico Gómez¨ y es miembro del Sistema Nacional de Investigadores, nivel 1. Ha publicado 12 artículos, los cuales han sido citados más de 400 veces. Sus principales temas de investigación se centran en los efectos metabólicos de ciertos nutrimentos sobre el metabolismo del tejido adiposo y en la influencia de la cirugía bariátrica sobre el metabolismo humano.


Ruth Gutierrez-Aguilar
Hospital Infantil de México “Federico Gómez” / Facultad de Medicina, UNAM.


Realizó una estancia postdoctoral en el Instituto de Enfermedades Metabólicas de la Universidad de Cincinnati, Estados Unidos. Es doctora en Genética Humana en Obesidad y Diabetes tipo 2 en la Universidad de Lille 2 en Francia. Estudió la maestría de Ciencias Bioquímicas en la Facultad de Química de la UNAM, obteniendo la Medalla Alfonso Caso, donde también estudió la licenciatura de Química en Alimentos.

Es parte de la Unidad Periférica de la Facultad de Medicina de la UNAM ubicada en el Hospital Infantil de México “Federico Gómez” y es responsable del Laboratorio de Enfermedades Metabólicas: Obesidad y Diabetes. Forma parte del Sistema Nacional de Investigadores, nivel 1 y ha publicado 22 artículos con más de 700 citas. Sus líneas de investigación incluyen la descripción de la función de nuevos genes asociados a la obesidad, la metabolómica de la obesidad y la influencia de ciertos nutrimentos/medicamentos sobre la fisiología y metabolismo animal.

Actualizado hasta septiembre, 2017.


Frigolet, Maria E. y Gutiérrez-Aguilar, Ruth (2017). “Ciencias “ómicas”, ¿cómo ayudan a las ciencias de la salud?”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a3>.

Introducción

Mucho nos preguntamos si el sismo, de magnitud 7.1, fue más fuerte en la Ciudad de México que el terremoto de magnitud 8.0 de 1985. Sólo por la enorme diferencia en magnitud de los dos eventos, uno podría suponer que no. Esto tiene sentido, ya que el sismo de 1985 liberó 32 veces más energía sísmica que el del 19 de septiembre de 2017. Sin embargo, en 1985, el epicentro fue muy lejano y bajo las costas del estado de Michoacán, a más de 400 km de la capital, mientras que el 7.1 ocurrió apenas 120 km al sur de la ciudad. Al propagarse, las ondas sísmicas se atenúan rápidamente. Por ello, a pesar de que la ruptura que generó las ondas sísmicas el martes pasado es mucho menor que la de 1985, las sacudidas en la Ciudad de México fueron tan violentas. A continuación, veremos porqué.

¿Dónde y por qué ocurrió el sismo?

La ruptura del sismo del 19 de septiembre de 2017 ocurrió dentro de la placa oceánica de Cocos (i.e. sismo intraplaca), por debajo del continente, a una profundidad de 57 km (Figura 1). Si bien este tipo de sismo no es el más común en México, de ninguna manera es extraordinario. En la Figura 1 se muestran los epicentros y profundidades de algunos sismos similares, incluyendo el del pasado martes. Estas rupturas se producen a profundidades mayores que los típicos sismos de subducción como el de 1985, que tiene lugar bajo las costas del Pacífico mexicano sobre la interfaz de contacto entre las placas tectónicas de Cocos y de Norteamérica (línea roja, Figura 1). Los sismos intraplaca, de profundidad intermedia, se producen por esfuerzos extensivos a lo largo de la placa de Cocos. Las fallas geológicas asociadas a estos sismos se conoces con el nombre de “fallas normales”. Es preciso mencionar que estudios realizados para sismos intraplaca en México muestran que, por año, la probabilidad de que la intensidad de las sacudidas en la Ciudad de México debidas a este tipo de terremotos sea grande es muy similar a la de los sismos típicos de subducción, como el de 1985, entre otros. Esto implica que el peligro sísmico en la capital, asociado a los sismos intraplaca (como los del 7 y 19 de septiembre de 2017), es tan grande como el de los sismos más comunes que ocurren bajo las costas del Pacífico mexicano.


Figura 1. Localizaciones del sismo de magnitud 7.1 del 19 de septiembre de 2017 (color rojo) y algunos otros del mismo tipo en la región. Las “pelotas de playa” ilustran la orientación de las fallas y la dirección en que deslizaron. Todas estas son fallas de tipo normal.

¿Por qué tantos daños?

Gracias a la vasta red de acelerógrafos y sismómetros que registraron ambos terremotos en la Ciudad de México, y a los esfuerzos de muchos sismólogos e ingenieros mexicanos, hoy hemos entendido mejor qué ocurrió. Uno de los ingredientes que usan los ingenieros civiles para calcular las estructuras de los edificios de la CDMX es la aceleración máxima (Amax) del suelo producida por las ondas sísmicas. En 1985, la Amax en Ciudad Universitaria (CU), que está en suelo firme (Figura 2), fue de 30 gal (1 gal = 1 cm/s2), mientras que la Amax del 19 de septiembre de 2017 fue de 57 gal. Es decir que el suelo en la zona cercana a CU experimentó una sacudida dos veces mayor que en 1985.

Sin embargo, todos sabemos que gran parte de la Ciudad de México está edificada sobre sedimentos blandos de los antiguos lagos que existieron en el valle. Estos sedimentos provocan una enorme amplificación de las ondas sísmicas en la Ciudad de México que, probablemente, sea la más grande reportada en el mundo.


Figura 2. Espesor de la cuenca sedimentaria donde se encuentra gran parte de la Ciudad de México. Nótese la localización del terremoto del 19 de septiembre en el cuadro de la parte superior izquierda. Los puntos azules indican los sitios de dos estaciones sísmicas que registraron los terremotos de 1985 y 2017. La región entre los contornos azul y rojo representa la zona de transición entre el suelo firme y el suelo blando.

Para dar una idea tangible, la amplitud de las ondas sísmicas con períodos cercanos de 2 segundos en zona de lago (o zona blanda) (e.g. colonias Roma, Condesa, Centro y Doctores) puede llegar a ser 50 veces mayor que en un sitio de suelo firme de la Ciudad de México. Sin embargo, como las ondas también se amplifican en el suelo firme de la periferia, con respecto a lugares lejanos de la Ciudad de México, la amplitud en zona de lago puede ser de 300 a 500 veces mayor. En algunos sitios de la zona del lago, las aceleraciones máximas del suelo producidas por el sismo de magnitud 7.1 fueron menores a las registradas en 1985. Por ejemplo, en la Secretaría de Comunicaciones y Transportes (SCT, Figura 2), que se encuentra en dicha zona, Amax en 1985 fue de 160 gal, mientras que el pasado 19 de septiembre fue de 91 gal. En otros sitios de la zona de lago, las aceleraciones del suelo durante el sismo reciente fueron, muy probablemente, mayores que la registradas en 1985. Se trata de un patrón de movimiento complejo y muy variable en el espacio.



Figura 3. Localización de daños graves y colapsos durante el sismo del 19 de septiembre de 2017 (puntos rojos). El mapa contiene de fondo la información del periodo natural del suelo (degradado de colores), que es una característica que determina el potencial de amplificación del suelo blando de la ciudad. La zona en tonos grises representa los periodos de 0.5 a 1.0 segundos, también conocida como la zona de transición. (Fuente: ERN Ingenieros Consultores, ERNTérate, “Nota de interés al respecto del sismo del 19 de septiembre de 2017”, publicada el 23 de septiembre de 2017).

Un análisis detallado del movimiento del suelo producido por ambos sismos en la Ciudad de México revela cosas interesantes. De la misma manera que sucede con el sonido emitido por una cuerda de guitarra, los sismos están formados por ondas con diferentes períodos de oscilación. Los sismogramas registrados muestran que la amplitud de las ondas sísmicas con períodos de oscilación menores a 2 segundos fue mucho más grande en 2017 que en 1985 (en promedio unas 5 veces), grosso modo, en toda la ciudad. Sorprendentemente, sucede lo contrario para ondas con períodos mayores de 2 segundos, cuya amplitud fue mucho mayor en 1985 (hasta 10 veces mayor). Como veremos abajo, esto tiene fuertes implicaciones en el tipo de daños observados durante ambos terremotos.

En resumen, los movimientos del suelo debidos al sismo de magnitud 7.1 fueron muy violentos y, de cierto modo, comparables a los de 1985 a pesar de haber sido provocados por una ruptura (falla geológica) mucho más pequeña que, sin embargo, ocurrió mucho más cerca de la Ciudad.

Y los edificios, ¿qué sintieron?

Para los edificios, la situación no es tan sencilla. La aceleración máxima del suelo (Amax) no es necesariamente lo que pone en riesgo su estabilidad. Por el contrario, al ser estructuras de dimensiones (alturas) diferentes, su vulnerabilidad es muy variada. Ondas con mayor período de oscilación amenazan estructuras más altas. Contrariamente, ondas con períodos más cortos, amenazan estructuras más bajas. Para identificar qué estructuras pudieron verse afectadas por el sismo de 2017, los ingenieros y sismólogos calculan lo que llaman las “aceleraciones espectrales” a partir de los sismogramas registrados. Dichos valores nos dan una idea de las aceleraciones que pudieron experimentar, en sus azoteas, edificios con diferentes alturas. Las aceleraciones espectrales en CU (suelo firme) indican que, los edificios de 1 a 12 pisos cercanos a la estación sísmica experimentaron una aceleración promedio de 119 gal, que es aproximadamente 2 veces mayor que la observada en 1985 (Figura 4a). En contraste, las estimaciones en SCT (suelo blando) muestran que edificios pequeños de este tipo, cercanos a la estación, experimentaron una aceleración promedio de 188 gal, muy similares a las de 1985 (Figura 4b).

Por otro lado, edificios más altos, de entre 12 y 20 pisos, experimentaron una aceleración promedio en CU de 60 gal, que es 30% menor a la de 1985, que fue de 85 gal (Figura 4a). La diferencia más clara entre los dos terremotos ocurrió en suelo blando para edificios con más de 15 pisos. La Figura 4b muestra claramente cómo, en 1985, los edificios de este tipo cercanos a SCT experimentaron aceleraciones de 1.5 a 4.9 veces más grandes que las observadas el 19 de septiembre de 2017. En 1985, algunas de estas grandes estructuras experimentaron aceleraciones de hasta 760 gal. Como referencia, la aceleración de la gravedad terrestre (i.e. la de un cuerpo en caída libre) es de 981 gal.

Como veremos a continuación, la estación SCT no se encuentra en la zona con los mayores daños, que se encuentra más al oeste (hacia las colonias Roma y Condesa), principalmente en la zona de transición de la cuenca sedimentaria. Un análisis similar al de la Figura 4 a partir de registros en dichas colonias permitirá estimar qué tipos de edificios fueron los más amenazados. En esa zona, esperamos aceleraciones mayores que las de SCT para edificios de 4 a 10 pisos.


Figura 4. Aceleraciones experimentadas en las azoteas de edificios con diferentes alturas en los sitios CU (a, suelo firme) y SCT (b, suelo blando) (ver Figura 2) para los sismos del 19 de septiembre de 1985 (rojo) y 2017 (azul). 1 gal = 1 cm/s2. Las aceleraciones reportadas corresponden al promedio geométrico de ambas componentes horizontales del movimiento.

Los ingenieros y sismólogos de la UNAM, gracias a múltiples investigaciones basadas en miles de registros sísmicos en la Ciudad de México y el desarrollo de herramientas sofisticadas han podido cartografiar, en toda la mancha urbana, valores de aceleración experimentados el pasado 19 de septiembre para diferentes tipos de estructuras. Dichas herramientas fueron desarrolladas en el Instituto de Ingeniería de la UNAM y operan automáticamente en tiempo real. Con ellas, se generan mapas de intensidad en toda la ciudad pocos minutos después del sismo, mismos que son útiles para identificar, rápidamente, las zonas potencialmente dañas. La Figura 5 ilustra claramente esto para el sismo del 19 de septiembre de 2017. Ahí se puede apreciar que existe una clara correlación entre los daños ocurridos (i.e. los edificios colapsados o fuertemente dañados) y las zonas donde se produjeron las mayores aceleraciones espectrales. Consistentemente con lo explicado en el párrafo anterior, el sismo de magnitud 7.1 dañó, en su mayor parte, estructuras relativamente pequeñas, de entre 4 y 7 pisos, a lo largo de una franja con orientación norte-sur dentro de la zona de transición (entre las zonas de suelo firme y blando) al poniente de la zona de lago (Figuras 3 y 4). En contraste, las estructuras dañadas en 1985 fueron en su mayoría más grandes, con alturas de entre 7 y 14 pisos.



Figura 5. Mapa de aceleraciones espectrales para periodos de 1 segundo, correspondientes a la respuesta de estructuras de 7 a 10 pisos. Los triángulos negros muestran las localizaciones de los edificios colapsados o fuertemente dañados.

¿Por qué los daños se concentraron en ciertas zonas de la ciudad?

La violencia del movimiento del suelo en la Ciudad de México depende principalmente del tipo de suelo donde nos encontremos. Como ya se dijo, gran parte de la ciudad está asentada en suelo blando, sobre sedimentos lacustres (contorno rojo en de Figura 1). La Figura 5 muestra la aceleración estimada en las azoteas de edificios de 7 a 10 pisos (i.e. con períodos de resonancia cercanos a 1 segundo) provocada por el sismo del 19 de septiembre de 2017. Cabe precisar que este mapa fue generado en forma automática, casi en tiempo real, por el Instituto de Ingeniería de la UNAM, por lo que se hizo público unos minutos después del sismo. Como ya se dijo, existe una clara correlación entre la franja roja de máxima aceleración al poniente de la cuenca y la localización de los edificios colapsados o fuertemente dañados. También es sorprendente la correlación que hay entre los valores grandes de aceleración (franja roja) y la geometría (espesor) de los sedimentos lacustres (Figuras 2 y 3). La mayoría de los daños se encuentran al oeste de la cuenca sedimentaria, sobre la zona de transición y parte del suelo blando, muy cerca de su límite poniente. Ahí, los sedimentos tienen un espesor de 10 a 30 m. La interacción y amplificación de las ondas sísmicas con esta región de la cuenca sedimentaria provocaron los daños.

Además de la amplificación de las ondas, la duración del movimiento del suelo es también mucho mayor dentro de los sedimentos blandos. Estudios recientes muestran que las duraciones más grandes esperadas para períodos de oscilación menores a 2 segundos coinciden con la zona de mayor destrucción para el sismo de magnitud 7.1 del 19 de septiembre de 2017. Por ejemplo, la duración de la fase intensa del movimiento en CU fue de 36 segundos, mientras que en SCT, fue de 1 minuto. Por esta razón, tanto la violencia de las sacudidas como su duración en la zona de transición y de lago son las causantes de la destrucción.

¿Los daños se debieron a deficiencias en el reglamento de construcción?

No tenemos hasta el momento indicios de que las fuerzas de diseño (i.e. los criterios de resistencia estructural) actualmente vigentes en el reglamento de construcción de la Ciudad de México se hayan excedido durante el sismo del 19 de septiembre de 2017. Por lo tanto, los edificios construidos en los últimos años no deberían haber sufrido daños. Sin embargo, en el caso de estructuras comunes, el Reglamento de Construcciones de la ciudad no exige que las edificaciones antiguas sean reforzadas para resistir las fuerzas especificadas en las normas emitidas después de su fecha de construcción. Es posible, entonces, que en el caso de edificaciones antiguas sí se hayan excedido las fuerzas de diseño con las que fueron proyectadas.

Independientemente de lo anterior, se sabe que existe un grave problema por falta de cumplimiento de las normas especificadas en el reglamento vigente de construcción, documentado en proyectos de investigación realizados en la UNAM. En consecuencia, los daños observados se explican mejor con la falta de observancia de las normas, más que por posibles deficiencias en el Reglamento de Construcción actual.

¿Esperamos un sismo de mayor intensidad en la Ciudad de México?

Es muy probable. Bajo las costas del estado de Guerrero, por ejemplo, existe una brecha sísmica (i.e. segmento donde no ha ocurrido un terremoto significativo en más de 60 años) de 250 km de longitud en dónde podría ocurrir un sismo de magnitud superior a 8. Este segmento se encuentra a unos 300 km de la Ciudad de México. Es decir, aproximadamente 150 km más cerca que la zona epicentral del terremoto de 1985. Estimaciones hechas por sismólogos de la UNAM sugieren que, si este sismo ocurriera en un futuro, las aceleraciones del suelo blando en la Ciudad de México podrían ser, bajo ciertas condiciones, mayores que las del sismo reciente de magnitud 7.1, y de 2 a 3 veces mayores que las de 1985 en particular para edificios de más de 10 pisos. La duración del movimiento del suelo sería mayor que las experimentadas en 2017 (alrededor de 3 minutos en su fase intensa).

23 de septiembre de 2017

La información utilizada para elaborar esta nota resulta del esfuerzo
de investigadores y técnicos académicos de los institutos de Geofísica e Ingeniería de la UNAM.


Bibliografía

Meet the Dolls. Camry (2017). Naturally Perfect Dolls. Recuperado de <https://www.naturallyperfectdolls.com/pages/camryn>.

COMENTARIOS

Dr. Víctor Manuel Cruz Atienza
Departamento de Sismología, Instituto de Geofísica, Universidad Nacional Autónoma de México, UNAM.


Dr. Shri Krishna Singh
Sismólogo y Profesor Emérito, Instituto de Geofísica, UNAM.


Dr. Mario Ordaz Schroeder
Coordinación de Ingeniería Sismológica, Instituto de Ingeniería, UNAM.



Cruz Atienza, Víctor Manuel, Singh, Shri Krishna y Ordaz Schroeder, Mario (2017). “¿Qué ocurrió el 19 de septiembre de 2017 en México? ”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a10>.
Manuel Lino Resumen Introducción De importancia social, personal y hasta… Amateur, pero también barata y de… Promover a las instituciones, el mandato ¿A quién le importa la ciencia hecha en… A manera de conclusión Bibliografía Resumen El 30.2% de los mexicanos asegura tener información “nula” con respecto a los avances de la ciencia… Desde hace mucho tiempo, en México y en el mundo en general, se ha asumido que la difusión del conocimiento científico es responsabilidad de aquellos que lo generan y que estar al tanto de los avances que se producen en este campo a nivel nacional es prácticamente una obligación del público. El resultado de esta visión ha sido que existan grandes sectores de la población mundial que, en términos generales, carecen por completo de cultura científica. Sin embargo, esta ineficaz forma de difundir el conocimiento está empezando a cambiar… Palabras clave: comunicación de la ciencia, conocimiento científico, público, lectores, México. Communication of science in Mexico, the contempt of public and private 30.2% of Mexicans claim to have “zero” information regarding the progress of science… For a long time, in Mexico and in the world in general, it has been assumed that the dissemination of scientific knowledge is the responsibility of those who generate it, and being aware of the advances that occur in this field is practically an obligation of the public. The result of this vision has been that there are large sectors of the world’s population that, in general terms, are completely lacking in scientific culture. However, this ineffective way of spreading knowledge is starting to change… Keywords: communication science, scientific knowledge, public, readers, Mexico. Introducción La comunicación de la ciencia en México es y ha sido escasa y poco exitosa porque no considera y en ocasiones hasta menosprecia a sus públicos. Manuel Lino Contaba el teórico Richard Feynman, considerado uno de los diez físicos más importantes de la historia, que su padre lo sentaba en su regazo y le leía artículos de la Enciclopedia Británica… Estábamos leyendo –recuerda Feynman– sobre, digamos, dinosaurios. Acerca del Tyrannosaurus rex y (la enciclopedia) decía algo como ‘Este dinosaurio medía 7 metros y medio de altura, y su cabeza, dos metros de un extremo a otro’. Mi papá dejaba de leer y decía, ‘Ahora, veamos qué significa esto. Esto significa que si (el tiranosaurio) se parara en nuestro jardín, sería lo suficientemente alto como para asomarse por esta ventana de aquí’. Estábamos en el segundo piso. Y lo estaríamos viendo directamente a los ojos… Foto: heimseiten_WebdesignKoeln. Esta última frase no la dijeron ni Feynman ni su papá, sino Brian Malow, un stand up comedian estadounidense, conocido como Science Comedian, cuando me contaba sobre los cursos que imparte a científicos para que aprendan a dar charlas sobre divulgación. En el final que cuenta Feynman (en What Do You Care what other People Think?, o Qué te importa lo que piensen los demás en español) su papá explicaba que, dado el tamaño de la cabeza del tiranosaurio, éste no podría meterla por la ventana, con lo cual el pequeño podría irse a dormir tranquilo. Pero prefiero el final de Malow porque le da un toque artístico y dramático a esta historia sencilla que, en unos cuantos párrafos, condensa los principales elementos que debiera tener la comunicación de la ciencia para ser exitosa. El padre, Arthur Melville, explica el caso en términos que su público, el pequeño Richard, no sólo entienda, sino que pueda dimensionar y relacionar con su propio ambiente y experiencia. En su remate, Malow realza la parte narrativa, tanto en su aspecto formal –al hacernos notar que entre estos personajes hay un conflicto pues el tiranosaurio está mirando, quizá con hambre, a la familia Feynman–, como artístico al añadirle emoción e involucrarnos con la narración. Pero el elemento que más quiero destacar de esta historia y sus dos finales es que la buena comunicación del conocimiento se hace en función del público; no de quien lo creó ni de quien lo comunica. Así, con este sencillo ejemplo –que además sirve como introducción para este artículo– pretendo mostrar que la comunicación de la ciencia (considerada de manera amplia, desde la divulgación al periodismo) en México es todavía amateur y, por tanto, pobre en producción, calidad y recursos; y que esto se debe a que se ha ignorado y, en ocasiones, hasta menospreciado al público; además que nuestro sistema de ciencia, tecnología e innovación tiene fallas estructurales y conceptuales que han impedido, y quizá seguirán impidiendo, el adecuado desarrollo de esta actividad de enorme importancia para la que hay, aunque no lo crean, un público expectante. De importancia social, personal y hasta íntima Conocí a Malow en el “67 Lindau Nobel Laureate Meeting”, que este año 2017 reunió durante la última semana de junio, a 28 premios Nobel con alrededor de 400 jóvenes investigadores provenientes de más de 70 países que fueron seleccionados para asistir mediante concursos hechos por sus respectivas academias de ciencias. Estábamos además cerca de 90 reporteros y comunicadores de ciencia de 20 países. […] gracias a un diálogo entre científicos, políticos y sociedad exista una ciudadanía informada que contribuya a la generación de políticas públicas y a decidir el rumbo por el que habrá de transitar en temas relevantes. Esta edición del encuentro fue dedicada a la Química, disciplina en la que la mayoría de los laureados asistentes ganaron sus respectivos Nobeles y en la que se especializaban los jóvenes investigadores. Sin embargo, el énfasis de la reunión se desplazó notablemente al revuelo que ha causado Donald Trump al negar, desde la oficina más poderosa del mundo, no sólo a la ciencia sino a la racionalidad misma. La Casa Blanca se ha convertido en el principal baluarte de la “post-verdad” –término que ha sustituido a los clásicos “mentira”, “manipulación” y “demagogia”– y de las “dudas” respecto la evidencia científica del cambio climático, incluso la Presidencia de Estados Unidos de América (EUA) propuso cancelar el presupuesto federal destinado al combate de este problema; lo cual resulta alarmante si tomamos en cuenta que es el segundo país que más emite gases de efecto invernadero. El tema se hizo presente desde la conferencia inaugural que estuvo a cargo de Steven Chu, Premio Nobel de Física de 1997 y Secretario de Energía de EUA de 2009 a principios de 2013 (Chu no pudo asistir a Lindau, su discurso fue leído por William Moerner, Nobel de Química de 2014). Al principio advirtió acerca de las amenazas que nos acechan: “Hay un peligro real de que la elevación del nivel del mar o el colapso de la agricultura debido al calor y las sequías ocasionen migraciones masivas debidas al clima”; y, en ese sentido, calificó a los 4.5 millones de refugiados sirios, además de los millones de africanos que han salido de sus países natales, como apenas una “advertencia de lo que podría ocurrir en las próximas décadas”. Imagen: yatheesh_. Luego se refirió a la multitud de avances científicos y tecnológicos que es necesario hacer para contribuir a que las energías limpias sean accesibles para cualquier uso a costos bajos, e invitó a los jóvenes químicos a desarrollar dichos avances. “Pero –dijo– también necesitamos políticas públicas estables a largo plazo que permitan financiar proyectos visionarios de investigación y desarrollo” y, agregaría, guiar las inversiones del sector privado hacia innovaciones a gran escala. Al día siguiente, en un desayuno auspiciado por la representación de México, nuestro Nobel, Mario Molina, en referencia al tema comentó que: “es muy desafortunado, pero como científicos necesitamos unirnos y asegurarnos de que podemos comunicarle al público la enorme importancia que tiene la ciencia”. Y se preguntó: “¿Cómo nosotros, como comunidad científica, comunicamos este muy importante aspecto de la ciencia? Lo hacemos a la sociedad en general con la esperanza de que tengamos algún impacto en los tomadores de decisiones de ciertos gobiernos…”. En otras palabras, tanto Chu como Molina, están aspirando al que se considera el resultado ideal de la comunicación de la ciencia, en especial del periodismo: que gracias a un diálogo entre científicos, políticos y sociedad exista una ciudadanía informada que contribuya a la generación de políticas públicas y a decidir el rumbo por el que habrá de transitar en temas relevantes. El discurso de Chu además contenía el deseo de despertar vocaciones científicas (en este caso ya muy especializadas), otro de los beneficios que se espera de una comunicación de la ciencia eficaz. Sin embargo, las respectivas audiencias de Chu y Molina eran reducidas (de alrededor de 500 personas en el primer caso y de unas 100 en el segundo). Resulta evidente que se requiere de alguna forma de comunicación para amplificar su mensaje y para comunicarse con la sociedad. Pero, la comunicación de la ciencia… o mejor deberíamos decir la comunicación del conocimiento (para incluir a disciplinas como la Historia o la Economía) es importante también a nivel individual y hasta íntimo. Como ejemplo quiero mencionar a Elizabeth Merab, reportera del Nation Media Group de Kenia, quien me explicó su razón personal para dedicarse al periodismo de ciencia. Merab padece anemia falciforme, un mal hereditario que no sería tan grave de no ser porque vive en uno de los países donde la malaria es endémica. Aquellos que son sólo portadores del gen de la anemia, pero no la padecen, tienen resistencia a la malaria; pero quienes sí la desarrollan corren grave riesgo de ser infectados por el Plasmodium falsiparum, lo cual es casi una sentencia de muerte. He pasado alrededor de 75% de mi vida entrando y saliendo de hospitales y medicada […] Esto me hizo darme cuenta de que hay mucha gente que no sabe mucho sobre lo que consume en términos de medicamentos, ni de lo que consume de servicios y cuidados médicos. [Además en Kenia] tenemos un cambio en la demografía […] pasamos de enfermedades infecciosas a no infecciosas, como el cáncer, la diabetes y la propia anemia […]. Estos males están al alza, y la población no tiene la información necesaria […] Información simple, como qué comer y qué no, dónde obtener tratamiento, el mal que tienes ¿lo cubre tu seguro? Así que sentí la necesidad de ser parte de esta conversación (Merab, 2017). Se pueden mencionar muchas otras razones por las que comunicar ciencia es importante, pero quiero compartirles ésta que me dio Malow: “Si entiendes que toda la vida está relacionada, que nosotros estamos relacionados con esta planta y que toda la vida está hecha de las mismas cosas que el resto del universo, si entiendes ese tipo de unidad, las estúpidas cosas por las que nos peleamos, los prejuicios, que si eres gay y yo no, que si eres negro y yo blanco, yo soy judío y tú eres musulmán, entiendes que esas divisiones son tan ficticias […]. Quiero pensar que, si a más gente le importara la ciencia y sólo entender mejor el mundo, entonces esas diferencias se derrumbarían” (Malow, 2017). Amateur, pero también barata y de baja calidad A pesar de su enorme importancia (potencial), la comunicación de la ciencia en México y en América Latina es amateur y pobre. Hace pocas semanas, se presentó el Diagnóstico de la divulgación de la ciencia en América Latina (Patiño et al., 2017), hecho por la Red de Popularización de la Ciencia y la Tecnología en América Latina y el Caribe (RedPOP), un análisis que, entre otras cosas, confirma de manera científica lo que ya sabíamos: la poca profesionalización que existe en el medio. En América Latina, apenas 10.1% de quienes hacen divulgación en las instituciones son profesionales (figura 1). Lo peor es que, cuando encomiendan (la palabra ‘contratan’ no parece aplicarse en estos casos) actividades a personas externas, menos de 1% son profesionales en la materia con un despacho u oficina (figura 2). Elaboración propia con datos del Diagnóstico de la divulgación de la ciencia en América Latina. Elaboración propia con datos del Diagnóstico de la divulgación de la ciencia en América Latina. El Diagnóstico revela que: “es notable que 60.2% de las instituciones de la muestra del presente estudio cuente sólo con personal que realiza sus actividades de divulgación de la ciencia de manera gratuita, y que 91.9% lo haga con al menos una parte de personal voluntario” (Patiño et al., 2017, p. 97). Además, encuentra que de quienes se dedican a estas actividades, “sólo 35.6% lo hace de tiempo completo”. Esas y otras cifras pueden “ser indicativas de un bajo nivel de profesionalización en el recurso humano para la divulgación en la región” (Patiño et al., 2017, p. 123). Lo que a los autores del Diagnóstico (Ma. de Lourdes Patiño Barba, Jorge Padilla González y Luisa Massarani) les parece simplemente “notable” a mí me parece francamente alarmante y hasta escandaloso. La misión de las universidades (es lo que son la mayoría de las instituciones a las que se refieren el estudio) se ha separado tradicionalmente en tres grandes ramas: investigación, docencia y extensión; y que las universidades dejen una parte medular de sus labores a los amateurs es una omisión gravísima. La palabra “profesional” se refiere sobre todo a que un trabajo se haga a cambio de una remuneración, en contraste con el “amateur” que lo hace de forma gratuita; sin embargo, no es en balde que el término profesional también haga referencia a lo bien hecho y a quien “ejerce su profesión con capacidad y aplicación relevantes”, según la Real Academia Española. En ese sentido, una baja profesionalización implica también una baja (o simplemente menor) calidad en el trabajo. Para colmo, como aseguran los investigadores Tomás Ejea y Bianca Garduño sobre la extensión cultural, “una exploración bibliográfica sistemática sobre el tema pone en evidencia la falta de consenso en la formulación de la conceptualización de sus tareas y sus objetivos”, por lo que las acciones en la materia no se desarrollan de acuerdo a programas estructurados ni se tienen objetivos definidos y “carecen de presencia específica en la normativa universitaria, por lo que se subordinan a las autoridades. Por esta razón, el énfasis varía dependiendo de la importancia que le dé el funcionario en turno” (Ejea y Garduño, 2014, p. 14). Promover a las instituciones, el mandato Entre las conclusiones del Diagnóstico también podemos leer que “los tópicos sólo mínimamente se definen a partir de la detección de las necesidades e intereses de los públicos a los cuales se dirigen las acciones” (Patiño et al., 2017, p. 125). En el caso de México, no atender con la comunicación de la ciencia los intereses del público sino los de las instituciones es, en cierto sentido, un mandato de ley. Como señala el investigador y periodista Carlos Enrique Orozco, desde la fundación del Consejo Nacional de Ciencia y Tecnología (CONACYT), a finales de 1970, se mencionó entre sus funciones la de “fomentar la difusión sistemática de los trabajos realizados tanto por los investigadores nacionales como por los extranjeros que residen en el país, mediante la utilización de los medios más adecuados a ello” (Diario Oficial de la Federación, 1970, 29 de diciembre). En esa redacción no quedaba claro si la difusión debía orientarse a la sociedad o a la comunidad científica. Pero diez años después, aunque no se le dio lugar en el Programa Nacional de Ciencia y Tecnología (1978-1982) quedó claro que el énfasis estaba en la sociedad. Como muestra, Orozco cita el aumento de tiraje de la revista Ciencia y desarrollo de 6 000 ejemplares bimestrales en 1978 a 65 000 en 1980, además de la gran cantidad de libros de divulgación y ciencia ficción que el CONACYT publicó. Ciencias Naturales IV. Imagen: Lewis Minor. Ya para el Programa Nacional de Desarrollo Tecnológico y Científico (1984-1988) se empezó a usar el término comunicación social. Aun así, hasta el Programa Especial de Ciencia, Tecnología e Innovación, publicado en 2008, la postura de CONACYT, aunque con un lenguaje distinto, siguió siendo la misma: se trataba de “promover la cultura científica, tecnológica y de innovación a través de los medios de comunicación electrónicos e impresos, difundiendo los resultados de las investigaciones exitosas y el impacto social en la solución de problemas nacionales”. Lo anterior significa, como diría Arthur Feynman, que la finalidad de las publicaciones no era la de satisfacer los intereses del público ni contribuir a la generación de una cultura científica, sino dar a conocer las acciones que llevaban a cabo las instituciones. Sin embargo, en el Programa Especial de Ciencia, Tecnología e Innovación 2014-2018 (PECITI) la postura cambia. En primer lugar, se delinea la utilidad que, como nación, se puede encontrar en la comunicación de la ciencia. “Aquellos países que han logrado robustecer la apropiación social del conocimiento se caracterizan por ser más innovadores y en consecuencia aceleran su crecimiento económico” (PECITI, 2014, p. 16). En segundo lugar, puntualiza que “para este fin es necesario fortalecer dos mecanismos que incrementen la cultura científica de los mexicanos y conduzcan a una mayor apropiación social de la ciencia y del conocimiento: la divulgación y comunicación, y el acceso al conocimiento” (PECITI, 2014, p. 16). Es decir, el foco se desplaza de “dar a conocer los resultados de los investigadores” hacia el público. Éste es un cambio saludable. Pero en el mismo documento aparece otra vez lo que considero el otro gran error que se ha cometido desde el principio: “Dentro del SNCTI (Sistema Nacional de Ciencia, Tecnología e Innovación), el CONACYT es el principal encargado de las estrategias de divulgación. En ese sentido, ha realizado una amplia y continua labor para fortalecer la comunicación y divulgación de ciencia, tecnología e innovación (CTI), tales como: la creación de revistas (Ciencia y Desarrollo, Información Científica y Técnica ICyT, Comunidad CONACYT o TecnoIndustria), y la creación de la Semana Nacional de la Ciencia y la Tecnología”. También se creó la Agencia Informativa CONACYT para dar a conocer el trabajo de “individuos o empresas que estén creando ciencia, tecnología o innovación en México”. […] si queremos que haya una cultura científica, la comunicación de la ciencia no se debería distinguir del cine o la literatura, debe ser atractiva por sí misma porque no existe, ni podría aceptarse, la obligación de acercarse a ella. Esto sólo se hará por gusto, si el conocimiento científico se nos presenta de manera interesante, sorprendente, entretenida, conmovedora o hasta trascendente. Es decir, el CONACYT, como “el principal encargado de las estrategias de divulgación”, asume que la mejor estrategia es ser también el principal productor de divulgación, ser el protagonista de la historia en lugar de apoyar a quienes quieran invertir, producir y generar contenidos de comunicación de la ciencia. Es cierto que, desde hace unos años, se publica la “Convocatoria de Apoyo a Proyectos de Comunicación Pública de la Ciencia, la Tecnología y la Innovación”, que apoya una multitud de iniciativas. Pero, una vez más, hay un pero: el financiamiento de estas iniciativas se hace a fondo perdido y dentro de las consideraciones de asignación de estos apoyos no se considera que los proyectos tengan (o vayan a tener en algún momento) un modelo de negocios que les permita subsistir y continuar con su labor una vez que termine el año durante el cual los apoya CONACYT. Quiero aclarar que no comulgo con el “capitalismo salvaje” ni creo que deba desaparecer todo aquello que no produce dinero. Estoy de acuerdo en que el estado debe financiar actividades importantes y valiosas que no tengan perspectivas claras de generar capital (como la ciencia básica). Pero en este país hay que admitir que llega un momento en que la aceptación del público de un determinado producto (sí, también de un producto cultural) se mide por si gasta su dinero en él o no. Resulta curioso que una convocatoria que lleva en el nombre la palabra “innovación”, que implica llevar un producto o mejora al mercado, no considere a los mercados. Y, con perdón de los encargados del programa de apoyos, resulta hasta ridículo que en el primer párrafo de la convocatoria se asegure que “la nación en su conjunto, debe invertir en actividades y servicios que generen valor agregado de una forma sostenible” (sic por la coma que malamente separa el sujeto del predicado), y acto seguido ofrezca apoyo a proyectos que, en principio, no son ni tienen forma de volverse sostenibles. Como remate, unas páginas más adelante encontramos el siguiente párrafo: “Las propuestas deberán estar estructuradas para comunicar a públicos segmentados o sectoriales los hallazgos o innovaciones más impactantes de las investigaciones científicas o los desarrollos tecnológicos, respectivamente, realizados por investigadores o empresas en instituciones establecidas en México”. Ahí está, otra vez, el afán de autopromoción y el menosprecio al público. Ante ello, cabe señalar que muchos de los científicos más reconocidos de México han hecho sus descubrimientos más importantes en el extranjero. Aquí pongo algunos ejemplos notables: Mario Molina, en la Universidad de California en Irvine, junto con el Profesor F. Sherwood Rowland; Francisco Bolívar Zapata (Premio Príncipe de Asturias 1991) estaba en San Francisco, California, cuando formó parte del equipo pionero que creó el primer organismo con ingeniería genética; Luis Herrera-Estrella participó en la elaboración de la primera planta genéticamente modificada mientras estaba en la Universidad Ghent, Bélgica, en el laboratorio de Marc Van Montagu; y Ricardo Miledi (ganador también del Asturias) descifró, con Bernard Katz en el University College London, los secretos de la transmisión sináptica que le dieron una tercera parte del Nobel a Katz. ¿A quién le importa la ciencia hecha en México? Como periodista de ciencia y cultura he escuchado con (demasiada) frecuencia que los mexicanos “debemos conocer la ciencia que se hace en México”. Encuentro esta proposición tan ridícula como cuando hace unos años escuchaba que apoyáramos al cine mexicano y lo fuéramos a ver. Si las películas mexicanas no nos resultaban entretenidas, interesantes, conmovedoras ni sublimes, como público no teníamos razón alguna para verlas. En ese sentido, si queremos que haya una cultura científica, la comunicación de la ciencia no se debería distinguir del cine o la literatura, debe ser atractiva por sí misma porque no existe, ni podría aceptarse, la obligación de acercarse a ella. Esto sólo se hará por gusto, si el conocimiento científico se nos presenta de manera interesante, sorprendente, entretenida, conmovedora o hasta trascendente. Y esto no va a suceder mientras no se haga de manera profesional, es decir, mientras quienes lo hagan no piensen en crear productos tan buenos que la gente esté dispuesta a pagar por ellos. Porque el público sí está interesado en la ciencia. La Encuesta sobre la Percepción Pública de la Ciencia y la Tecnología (ENPECYT) que hace el Instituto Nacional de Estadística y Geografía (INEGI), por encargo de CONACYT, revela que es uno de los temas que aparecen en medios de comunicación que más le importa a la gente. El rubro ‘Nuevos inventos, descubrimientos científicos y desarrollo tecnológico’ aparece en segundo lugar de interés. Además, algunos otros temas que importan a la gente también están relacionados con la ciencia, como el medio ambiente y, aunque la ENPECYT no pregunta al respecto, la salud, el comportamiento humano, etcétera. Temas que interesan al público Dos temas relacionados con la ciencia, la contaminación ambiental y las novedades en ciencia y tecnología, figuran en los tres primeros lugares del interés del público. Aquí se muestran los datos graficados en orden descendente de lo que les parece más interesante. Fuente: realización propia con datos de la ENPECYT (2015). Estadísticas aparte, quienes nos dedicamos a actividades “elevadas” relacionadas de alguna manera con las ciencias, la cultura o el arte, a veces se nos olvida que al público general también le interesan –y mucho– estos temas. Se nos olvida que todos somos público general (salvo en el área de nuestra especialidad) y que, en el fondo, todo ser humano, por el simple hecho de serlo, se interesa por los grandes temas a los que la ciencia está dando respuesta: “qué es la vida”, “qué es la conciencia”, “de dónde venimos”, “por qué nos comportamos de la forma en que lo hacemos”, etcétera. Los temas que menos interesan Si graficamos los mismos datos pero en orden descendente por quienes manifestaron tener un interés nulo por los temas, vemos que la contaminación ambiental se mantiene en la preferencia del público seguido por Ciencias sociales e Historia. Curiosamente, la Política y las Ciencias exactas son en ambas gráficas las menos favorecidas por el público. Fuente: realización propia con datos de la ENPECYT (2015). A manera de conclusión Volvamos con la familia Feynman, a quienes dejamos en una situación comprometida… No, no me refiero al tiranosaurio en la ventana, sino a Arthur tratando de suavizar la imagen para que el pequeño Richard pueda dormir. Era muy emocionante y muy, muy interesante pensar que hubo animales de tal magnitud –y que todos murieron y que nadie sabía por qué (ahora ya sabemos)–. Por eso no estaba asustado de que alguno de ellos fuera a llegar hasta mi ventana… Así, Richard pudo dormir, creció y, en parte gracias a las enseñanzas de su padre, no sólo se convirtió en un gran físico sino en un excelente divulgador. Su libro Surely you’re joking Mr. Feynman (¿Está usted de broma, Sr. Feynman?) está calificado en Amazon como un best seller que tiene 4.5 estrellitas, de 5 posibles; igual que el más serio QED. The Strange Theory of Life and Matter, y el video en el que Richard habla de su padre, entre otros temas, tiene casi 916 000 visualizaciones en YouTube. Teniendo en cuenta que murió en 1988, que el pico de su fama estuvo en los años 60 y que en The Big Bang Theory sólo se le ha mencionado una media docena de veces, no está nada mal como para dar ejemplo de que hay público para la comunicación de la ciencia. Y ya que nos preguntamos si Feynman estaba bromeando y que menciono a The Big Bang Theory, un último consejo de Malow: “Pero claro que ayuda sentir que lo que haces es importante. Quizá, si tan sólo cuento algunos chistes científicos y te hago reír, ya hice algo con un poco de sentido porque tal vez pensabas que la ciencia era aburrida y te hice reír con un humor muy geek. Aunque no te haya enseñado nada, tal vez sólo te enseñé una cosa, que la ciencia puede ser divertida”. Bibliografía La mayor parte de las ideas que vierto aquí no son mías sino de diversos investigadores (aunque quizá las he tergiversado un poco). Anoto aquí los cuatro textos que más consulté en la elaboración de este artículo: Sobre la historia de la comunicación de la ciencia en México y sus obstáculos: Orozco Martínez, Carlos Enrique (2014). “Sin embargo, se mueve. La divulgación de la ciencia en México”, en Hugo Edgardo Méndez Fierros y Felipe Cuamea Velázquez, coordinadores, Universidad, ciencia y Cultura: evaluaciones para un saber colectivo. Universidad Autónoma de Baja California, México. Pp. 77-110. Sobre los problemas de las universidades para comunicar: Tomás Ejea Mendoza y Bianca Garduño Bello (2014). “La extensión de la cultura universitaria en México: un ensayo sobre su historia conceptualización y relevancia”, en Hugo Méndez y Felipe Cuamea (eds.), Universidad, ciencia y cultura: evocaciones para un saber colectivo. Universidad Autónoma de Baja California. Mexicali, pp. 52-78. Sobre la lamentablemente escasa pero muy deseable influencia que tiene el periodismo científico en las políticas públicas: Rosen, Cecilia y Javier Crúz-Mena (2015). “El periodismo de ciencia en América Latina”, en Luisa Massarani (org.), RedPOP: 25 años de popularización de la ciencia en América Latina. RedPOP, Unesco, Primera edición Río de Janeiro, pp. 61-71. Sobre la importancia de la narrativa en la comunicación y de la comunicación misma: Aquiles Negrete Yankelevich (2012), La divulgación de la ciencia a través de formas narrativas. Colección Divulgación para divulgadores de la Dirección General de Divulgación de la Ciencia, UNAM. Primera Reimpresión.
Facebook
Twitter
YouTube
Instagram

Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079