Warning: Trying to access array offset on value of type bool in /home2/soniyainfra/public_html/wp-content/themes/enfold/framework/php/function-set-avia-frontend.php on line 536

PDF Big Data: una exploración de investigaciones, tecnologías y casos de aplicación Nestor Dario Duque-Mendez

Si bien es cierto que los procesos de Datificación y la utilización de técnicas de recolección y análisis de datos tienen enormes beneficios, para algunos resulta alarmante desconocer el destino y el uso de toda esa información recopilada. En el caso de Colombia, el documento CONPES 3920, sobre la Política Nacional de Explotación de Datos, establece la necesidad de anonimizar los datos recolectados por cualquier entidad e informar quién puede disponer totalmente de la información (CONPES 3920, 2018). En Chile existen varias leyes y normativas que regulan el uso de datos clínicos y se ha determinado que toda información de procedimientos y tratamientos médicos debe ser considerada como “dato sensible”, por lo cual solo pueden ser utilizados con el consentimiento de los pacientes (Zepeda, 2019). En cuanto a la protección de datos, es importante mencionar que hace falta promover una cultura de seguridad que incluya a grupos heterogéneos de la población, por ejemplo para el caso de Colombia se han observado antecedes interesantes sobre prácticas de seguridad informática a nivel universitario y policial (Estrada et al., 2019 y Estrada et al., 2021). Debido a la enorme cantidad de datos generados por la sociedad hoy en día, conceptos como Big Data, Minería de datos, Analítica de datos y Open Data se abren paso como herramientas que permiten su tratamiento, consulta y análisis. A través de la aplicación de algunos algoritmos de Inteligencia Artificial (IA) y Machine Learning (ML), y gracias a la Datificación, dichas herramientas pueden ayudar a encontrar y comprender patrones de comportamiento en los procesos sociales de una comunidad.

articulos cientificos de big data

En los países europeos se encuentra un número también significativo de trabajos, mientras que, en Sur América, Oceanía y África, el desarrollo de investigaciones en el campo es aún incipiente. En otros sectores de la sociedad también existe evidencia de procesos de Datificación, sin embargo, se omite reseñar en detalle dichas áreas por el alcance del presente trabajo. Finalmente, en Brasil está en proceso la creación de una estrategia nacional con alianza de la Red Universitaria de Telemedicina (RUTE) sobre IoT y macrodatos como apoyo al sector de investigación y de e-Salud (Unión Internacional de Telecomunicaciones, 2018). El otro aspecto que define a los Big Data es la ve locidad, lo cual hace alusión al ritmo en que los datos se producen, pero también a la capacidad de respuesta en el análisis como para hacer de la información un producto que dé soluciones innovadoras y eficientes9. La mínima cantidad de información que puede ser procesada por un aparato tecnológico es el bit, el cual sólo puede ser expresado en ceros o unos, mientras que un byte es un conjunto de 8 bits.

términos del Big Data básicos que debes conocer

Una vez propuesto un modelo predictivo para la sobrevida, es natural determinar qué variables del modelo tienen mayor poder predictivo, lo que constituye inferencia. De manera similar, luego de determinar grupos de pacientes con una cierta patología, puede ser de interés determinar modelos que predigan la progresión de ese paciente y a qué grupo pertenecería un paciente que ha sido diagnosticado https://noesfm.com/conoces-los-frameworks-modernos-una-guia-para-utilizarlos-en-el-desarrollo-web/ hoy, lo que constituye predicción. Según un estudio reciente, el mercado latinoamericano de Big Data and Analytics (BDA) alcanzó ingresos por valor de US$2.992,5 millones en 2017. En la actualidad, Brasil lidera el ranking con el 46,7 % de las ventas totales, lo siguen México (26,7 %), Colombia (7,9 %), Chile (6,9 %), Argentina (5,6 %) y Perú (2,4 %) (Frost y Sullivan, 2018).

articulos cientificos de big data

Este es el caso, por ejemplo, cuando se dispone de registros de la sobrevida y el historial médico de pacientes que han sido sometidos a una intervención. Ejemplos concretos de estudios que constituyen objetivos de predicción son estudios de diagnóstico clínico38, genómica39 y análisis de imágenes radiológicas40,41 entre otros. Esta cantidad masiva de datos, coloquialmente referida como Big Data, es parte de la metodología discutida previamente; los datos son la materia prima a partir de la que deseamos extraer información útil. Sin embargo, definir Big Data exclusivamente en términos del volumen de los datos ofrece una visión parcial y limitada que no explica su potencial, ni evidencia los desafíos que presenta su manipulación. La velocidad refiere tanto a la rapidez de generación de los datos, por ejemplo, señales fisiológicas adquiridas en tiempo real por sensores vestibles, como al tiempo en que el procesamiento de los datos debe ser realizado, por ejemplo, al correlacionar señales en tiempo real para determinar el riesgo de un paciente y así poder asignar recursos en una unidad de cuidado intensivo.

Rev. Bioética y Derecho  no.50 Barcelona  2020

Los primeros trabajan aprendizaje inductivo de descripciones simbólicas, mientras que los segundos se centran en los métodos de reconocimiento de patrones o en la estadística. En los últimos años, el uso del aprendizaje máquina se ha extendido con rapidez [38], se ven aplicaciones en dominios como detección de fraudes, sistemas de recomendación [39], detección de spam [40], predicciones financieras curso de ciencia de datos [41], comercio y mercadeo [42], [43], entre otros. La investigación logró evidenciar que el auge de la Datificación y el uso de herramientas tecnológicas de análisis de datos como Big Data, IA y ML, están transformando a las comunidades de los países de la región, lo que deriva en nuevas entidades digitales que tienden a mejorar su calidad de vida en los aspectos más notorios de la sociedad.

Hoeren hace énfasis específicamente en la calidad de los datos que se utilizan en el análisis de big data, pues deja en evidencia que si no existe calidad en los datos que se utilizan para obtener los resultados, estos serán imprecisos; entonces, los resultados que se arrojen pueden ser erróneos y pueden causar discriminaciones injustas para los individuos (2017, p. 27), lo que es peligroso. Esta situación, explica Hoeren, trae aparejadas otras consecuencias legales, y es que la afectación directa por este tipo de resultados es hasta ahora difícil de demostrar ante los tribunales en general (2017, pp. 27 y 34). Este autor también asevera que la interpretación es la parte más complicada del análisis de big data y que no importa qué tan grande sea la cantidad de datos que se procesan, sino que se entiendan los límites de estos análisis, pues -señala- no se han entendido las bases del big data y, por lo tanto, los resultados se pueden malinterpretar (2017, p. 35). El modelo estadounidense de autorregulación empresarial está siendo cada vez más cuestionado, tanto desde el ámbito político como desde el académico y el ciudadano, por los grandes márgenes de discreción que se otorgan a las empresas en perjuicio de los individuos en aspectos tan medulares como los relativos a qué información personal se recolecta y cómo se usa esta ENT#091;…ENT#093;. En Europa, la situación es diametralmente diferente, pues desde el 25 de mayo de 2018 está en vigor el Reglamento General de Datos Personales ENT#091;…ENT#093; que establece medidas en favor de los usuarios, como son los derechos al consentimiento expreso, a retractarse, al olvido, a la rectificación, a conocer qué datos tienen las empresas y cómo los usan, entre otros ENT#091;…ENT#093; (Calcaneo, 2019, p. 40). Un Estado, sea creador o mero importador de tecnologías, está inmerso en un mundo globalizado en el que las repercusiones en positivo o negativo del uso de estas tecnologías es generalizado.