Big data, algoritmos y política: las ciencias sociales en la era de las redes digitales

Un ejemplo del uso del big data y todo lo relacionado con él en una investigación genómica lo tenemos en el Consorcio Internacional del Genoma del Cáncer en el que participa España junto a más de 10 países. Desde hace años, los investigadores se han esforzado en conocer con exactitud la posición de estas letras (nucleótidos), qué cambios de orden de las letras (o sustituciones o “borrado”) de algunas de ellas se asocian con enfermedades, con variantes de enfermedades o incluso con protección frente a ellas. También se han localizado físicamente en nuestros cromosomas, se han situado como si de un mapa o un puzle se tratara. Los coronavirus (CoV) pertenecen a la subfamilia Orthocoronavirinae de la familia Coronaviridae en el orden Nidovirales, y esta subfamilia incluye α-coronavirus, β-coronavirus, γ-coronavirus y delta-coronavirus (Banerjee et al., 2019).

En este caso las variables predictoras corresponden a las imágenes ya adquiridas, mientras que la variable de respuesta corresponde al diagnóstico, por ejemplo, 1 si es melanoma o 0 si no lo es. Dado que el objetivo es predicción, un método factible podría ser una red neuronal (ver Figura 5), pues determina de forma aproximada la relación entre las imágenes y el diagnóstico haciendo uso de datos históricos. Cuando queremos predecir el diagnóstico de un nuevo paciente, conceptualmente estamos evaluando la función f en esta nueva imagen dermatoscópica para predecir la presencia o ausencia de esta patología. Por lo tanto, lo relevante para evaluar estos métodos es comprender cómo la estructura de los datos históricos refleja de una buena forma la estructura de la relación que deseamos aprender. En el caso del problema de predicción, si denotamos Y a la variable de respuesta (variable dependiente) y X a las variables predictoras (variables independientes), entonces el método cuyo fin es realizar predicciones busca modelar matemáticamente la información sistemática que X proporciona acerca del valor de Y. La relación entre la respuesta y los predictores puede ser descrita a través de una función f para la cual se tiene Y ≈ f(X); de esta forma, podemos realizar una predicción simplemente evaluando esta función para nuevos valores de las variables predictoras.

Big DataEstrategias de innovación 1 artículos

Sin embargo, definir Big Data exclusivamente en términos del volumen de los datos ofrece una visión parcial y limitada que no explica su potencial, ni evidencia los desafíos que presenta su manipulación. La velocidad refiere tanto a la rapidez de generación de los datos, por ejemplo, señales fisiológicas adquiridas en tiempo real por sensores vestibles, como al tiempo en que el procesamiento de los datos debe ser realizado, por ejemplo, al correlacionar señales en tiempo real para determinar el riesgo de un paciente y así poder asignar recursos en una unidad de cuidado intensivo. La variedad refiere a la naturaleza diversa de los datos que se adquieren hoy en día, incluso de un mismo paciente, como por ejemplo imágenes radiológicas, pruebas de laboratorio, e información cualitativa presente en fichas médicas. En resumen, son el volumen, la velocidad y la variedad23 de los datos que dan en parte origen a Big Data y elucidan los desafíos tecnológicos que presenta su manipulación y administración. Publica artículos sobre temas tales como enfoques estructurales, cuantitativos o estadísticos para el análisis de datos; avances en los métodos de clasificación, agrupación en clústeres y reconocimiento de patrones; estrategias para modelar datos complejos y extraer grandes conjuntos de datos; métodos para la extracción de conocimientos de datos y aplicaciones de métodos avanzados en dominios específicos de la práctica. Los artículos ilustran cómo los nuevos conocimientos específicos del dominio pueden estar disponibles a partir de los datos mediante el uso hábil de métodos de análisis de datos.

  • Por otra parte, los dermatólogos pertenecen a 17 países distintos, y su entrenamiento clínico puede generar una exposición dispar a distintos tipos de lesiones; el grupo es además heterogéneo respecto a la experiencia profesional de sus integrantes.
  • En otras palabras, la presencia del individuo en la base de datos D2 no tiene un mayor impacto en las conclusiones obtenidas, lo que se ilustra a través del pequeño desplazamiento en la curva verde relativa a la azul.
  • A pesar de que el término Big Data se asocia principalmente con cantidades de datos exorbitantes, se debe dejar de lado esta percepción, pues Big Data no va dirigido solo a gran tamaño, sino que abarca tanto volumen como variedad de datos y velocidad de acceso y procesamiento.

Una de las áreas de investigación donde inmediatamente pensamos en grandes cantidades de datos es el estudio de los genes. Lo primero que tenemos que pensar es que nuestro genoma, el conjunto de información que codifica para absolutamente todo lo que Por qué un curso online de desarrollo web es imprescindible para aprender la profesión somos y que está en el núcleo de nuestras células, está formado por unos 3.000 millones de letras. Variaciones mínimas en esos 3.000 millones de letras provocan variaciones en nuestras características físicas o son las causantes de enfermedades.

Elena García: “El Big Data me ha permitido saciar mi constante curiosidad ante el porqué de las cosas”

Por otro lado, en el aprendizaje no supervisado, el algoritmo del equipo no posee la respuesta correc ta, por lo que debe generar los perfiles o predicciones solo con la información histórica que se le entrega. Por ejemplo, se le podría solicitar identificar a grupos de pacientes con ciertas caracteristicas clínicas y luego, si esta clasificación tiene algún sentido clínico, se podría utilizar para tomar decisiones, por ejemplo, sobre el beneficio de algún determinado tratamiento que algún grupo podría tener22. Sin embargo, se acepta que se trata del “estudio científico de la creación, validación y transformación de datos para crear significado”, es decir, la ciencia que permite extraer valor y conocimiento de los datos. Por tanto, los Big Data están intrínsicamente relacionados con la “ciencia de datos” debido a que son su materia prima17,18. Este artículo tiene como objetivo describir los con ceptos y terminología relacionada con la producción masiva de datos, que son conocidos por el tecnicismo “Big Data”. Así también, se pretende brindar algunos ejemplos en los cuales se están usando este tipo de da tos en el ámbito de la pediatría.

Muchas de las leyes nacionales que han creado los Estados latinoamericanos en la materia de la protección de datos han seguido estándares internacionales que han dictado tanto la Unión Europea (Maqueo et al., 2017, p. 78) como los Estados Unidos, ambos sistemas jurídicos con una visión diametralmente opuesta en lo que respecta al tema. Así, en cuanto a la normatividad en torno a la protección de datos personales, intervienen una pluralidad de actores como son el dueño del dato, el responsable del tratamiento de los datos, el encargado de este tratamiento y, por supuesto, el destinatario de los datos personales, siendo cada uno de ellos pieza clave en el tema de los análisis de grandes cúmulos de datos (Cubillos, 2017, pp. 41-42). En el caso de los análisis de grandes cúmulos de datos, cada Estado que conforma la sociedad internacional ha optado por regular temas relativos a esta técnica de análisis, centrándose principalmente en proteger la privacidad de las personas y la manera en que se tratan los datos personales. De esta manera es necesario explicar qué es el análisis de grandes cúmulos de datos y cómo esta herramienta puede beneficiar o perjudicar a las sociedades en general y a los individuos en particular. Los macrodatos se han definido por distintos expertos como «ENT#091;…ENT#093; los conjuntos de datos cuyo tamaño está más allá de las capacidades de las herramientas típicas de software de bases de datos para capturar, almacenar, gestionar y analizar» (Johanes, 2013, p. 2). Tampoco se puede negar que los Estados a nivel internacional están conscientes de la importancia de la incorporación del uso de las tecnologías para alcanzar determinadas metas, tanto económicas como políticas y sociales.

El ‘big data’ revela leyes evolutivas ocultas en la música clásica

Lo relevante de esta técnica de análisis es que para poder utilizar este cúmulo de datos es necesario que un programador experto elabore algoritmos que permitan su interpretación, ya que «los datos no pueden hablar por sí mismos» (Frith, 2017, p. 173). Además, no importa qué tan grande sea el volumen de los datos que se va a analizar o que tan sofisticado sea el algoritmo para realizar ese análisis, los resultados aún necesitan de los seres humanos https://www.edy.com.mx/2023/12/aspectos-basicos-que-cualquier-curso-online-de-ciencia-de-datos-deberia-ensenarte/ para ser interpretados (2017, p. 174). Un hecho significante que señalan Paterson y Maeve es que los programas de inteligencia artificial «aprenden de los datos para poder reconocer inteligentemente nuevos datos y adaptarlos de conformidad a lo aprendido» (2018, p. 3). Los algoritmos que se usan para hacer este análisis de big data generalmente no son transparentes y crean lo que Paterson y Maeve han descrito como el efecto black box.

Indicadores científicos: los datos verdaderos pueden engañar – The Conversation

Indicadores científicos: los datos verdaderos pueden engañar.

Posted: Wed, 18 Mar 2020 07:00:00 GMT [source]

En este sentido, para las ciencias sociales el hecho fundamental es que en la interacción mediada por tecnologías digitales (que incluye intermediarios diversos como smartphones, tarjetas de crédito, páginas web, interfaces, detectores o redes sociales, por mencionar algunos), las personas producimos datos en tiempo real que se van almacenando y pueden ser analizados. Estos tienen la característica de que no reflejan las opiniones expresadas por las personas, sino que son “rastros” que dejamos involuntariamente en nuestros quehaceres cotidianos. Esto nos entrega una comprensión más amplia del tipo de información que se produce en la interacción con las tecnologías digitales. De este modo, producimos flujos de información de gran magnitud que difícilmente pueden ser entendidos y procesados con los métodos tradicionales dadas sus limitaciones logísticas. A su vez, el acceso y procesamiento de dicha información sirve como una nueva manera de extraer ganancias y de aumentar la “vigilancia” de poblaciones a través la creciente interconexión de bases de datos y técnicas de análisis.