ĐÀO TẠO - CHIA SẺ KINH NGHIỆM - QUAY PHIM - CHỤP HÌNH

Big Data y Data Science: ¿Cuál es la diferencia?

Y ya ha logrado incentivar en la comunidad académica y comercial el desarrollo de tecnologías de apoyo que toman los paradigmas base y los emplean en la construcción de soluciones particularizadas a problemas de entornos de investigación y producción reales. Aprendizaje máquina es un área de investigación bastante reconocida en las ciencias de la computación, principalmente comprende el descubrimiento de modelos, patrones y regularidades en los datos [37]. Otra de las bases de Big Data es la computación en la nube o cloud computing logrando que https://www.adiario.mx/tecnologia/el-bootcamp-de-tripleten-unico-por-su-metodo-de-ensenanza-y-plan-de-carrera/ los desarrolladores ya no requieran de grandes inversiones en hardware, la elasticidad de recursos sin necesidad de pagar por servicios Premium de gran escala es un hito fundamental en la historia de las tecnologías de la información. Se auguró el crecimiento de cloud computing independientemente de si los servicios adquiridos son a bajo o alto nivel de abstracción. Se afirma que el almacenamiento, cómputo y las redes deben concentrarse en la escalabilidad horizontal de los recursos virtualizados en lugar del rendimiento de un solo nodo.

Los primeros trabajan aprendizaje inductivo de descripciones simbólicas, mientras que los segundos se centran en los métodos de reconocimiento de patrones o en la estadística. En los últimos años, el uso del aprendizaje máquina se ha extendido con rapidez [38], se ven aplicaciones en dominios como detección de fraudes, sistemas de recomendación [39], detección de spam [40], predicciones financieras [41], comercio y mercadeo [42], [43], entre otros. En la exploración se encontró que el termino Big Data ha tenido gran acogida en la comunidad, representado esto en el surgimiento de tecnologías, técnicas y enfoques.Sin embargo, se presenta aún una marcada tendencia hacia los aportes de tipo conceptual, son pocos los resultados y hallazgos que permitan realmente vislumbrar de forma tangible sus beneficios frente a otras tendencias o tecnologías tradicionales. Los trabajos se concentran, en su gran mayoría, en asociar Big Data a grandes volúmenes de datos o a la distribución de procesamiento. En el primer caso, no es claro cuál es la cantidad de datos que permite esta calificación; y para el segundo, no hay coincidencia en determinar para qué tipo de datos el procesamiento distribuido consigue mejores resultados. Con lo anterior, se ratifica que existen numerosos vacíos conceptuales y tecnológicos en los cuales se pueden plantear trabajos investigativos y prácticos.

Rev. Bioética y Derecho  no.50 Barcelona  2020

La parte de lo automático “tiene que ver con que una parte de (y a veces toda) la tarea de reconstrucción [re-ajuste] del modelo puede relegarse a un procedimiento computacional” (p. 39-40). Mantelero advierte que una evaluación centrada en los derechos humanos debe dar una mejor respuesta a la demanda de una evaluación integral que incluya no solo la protección de datos, sino también los efectos del uso de los datos sobre los derechos y libertades, como la libertad de expresión, de reunión, de movimiento y también derechos como la no discriminación (2018, El bootcamp de TripleTen: único por su método de enseñanza y plan de carrera p. 771). Pero los tipos de datos han variado a lo largo del tiempo; antes eran datos estructurados, ahora son semiestructurados y no estructurados, como imágenes o correos electrónicos”, comenta la doctora María del Pilar Ángeles, coordinadora de la licenciatura en Ciencia de Datos, en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM. De igual forma, tampoco se ha tratado la conexión con la analítica web, o con el periodismo ciudadano, y otro tema clave que son los propios riesgos que supone el fenómeno del big data.

articulos cientificos de big data

Las tecnologías asociadas al enfoque de Big Data ya han comenzado a tomar madurez y se vislumbran grandes oportunidades y retos en su utilización, optimización y adaptación a diferentes dominios de datos. Sin embargo, ya se encuentran resultados que muestran sus beneficios en aspectos como la reducción de tiempos, optimización de recursos y mayor flexibilidad. Existe una estrecha relación entre diferentes métodos y tecnologías para la construcción de soluciones que integren las capacidades de cada uno de estos y las potencien en nuevas propuestas. Este artículo se trazó como objetivo mostrar algunos trabajos desarrollados entorno a la temática y describir tecnologías y técnicas de Big Data, notándose que siguen siendo materia de investigación y discusión, generando la posibilidad de proponer alternativas y modelos basados en la táctica de divide y vencerás. También se ve la diversidad de planteamientos que presentan los autores en cuanto al concepto de Big Data y las características que este debe atender. Es claro que el tema ha tomado un carácter de moda mundial y que se ha dejado de asociar solo a la característica de gran tamaño.

Derecho PUCP

El avance tecnológico, tanto en lo que se refiere al almacenamiento como al análisis de esta producción masiva de datos, promete convertirse en una poderosa herramienta, que si se utiliza adecuadamente podría ser muy beneficiosa para las personas y, en el mejor escenario, redundar en una mejor calidad de vida. Sin embargo, también genera muchas dudas en cuanto a un uso malicioso y controlador por los intereses de grandes compañías de la industria2, así como también se advierte sobre los excesos de la cuantificación3, lo que podría llevar de vuelta al reduccionismo cuan titativo, implicando un retroceso en cuanto al valor que ha cobrado la comprensión de los fenómenos en estudio. La IA y el radiodiagnóstico están jugando un papel importante en la detección del COVID-19 con un porcentaje superior al 90%, lo que puede incrementarse cuando se entrena el sistema con mayor cantidad de datos, por lo que el Big Data en conjunto con otras disciplinas analíticas son un factor clave para llevar a feliz término un estudio. Cabe aclarar que la IA no sustituye al profesional sanitario, por el contrario, es un complemento a su quehacer médico, ayudándole a mejorar la precisión del diagnóstico en un tiempo menor y tomar decisiones mucho más rápido aligerando con ello su carga de trabajo. Con la continua incorporación de las tecnologías disruptivas en el campo de la salud, las normativas en cuanto a la preservación de los derechos del paciente deberán ir cambiando y adaptándose a pesar de la incertidumbre que trae consigo, que como señala López (2019) no solo subestimamos los efectos de la tecnología a corto plazo, sino que ni siquiera somos capaces de pronosticar, predecir o intuir sus efectos a largo plazo. El aprendizaje automático abre un sinnúmero de posibilidades de investigación en diversos campos clínicos, donde la COVID-19 ha sido el impulsor de ello.

  • Este software emplea cámaras de video estándar o aquellas dispuestas en una ciudad para videovigilancia, permitiendo monitorear el flujo peatonal en zonas críticas, realizando un reconocimiento sobre la distancia mínima, indicando una alerta a las autoridades si alguien no cumple con la norma.
  • Por ejemplo, en todo el mundo han surgido comunidades que han creado plataformas que trabajan bajo el modelo de inteligencia colectiva, donde desarrolladores, científicos de datos, investigadores, médicos, entre otros voluntarios, formulan proyectos relacionados con la COVID-19.
  • Esto nos retrotrae no sólo a los formalismos para la descripción de entidades, sino también a instrumentos como las ontologías.
  • Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas.
  • No obstante, la cuestión es que en esta cadena de suministro de datos existen diversos participantes, que van desde las personas que proporcionan la información, las autoridades o las empresas que recolectan los datos, hasta las personas que van a diseñar los algoritmos para que el cúmulo de información prevea un significado; es decir, que se interpreten los datos (Nersessain, 2018, p. 849).
  • Un lenguaje colaborativo que se puede definir como
    una folksonomía controlada, cuya base es la indexación social y por objeto la
    indización/categorización de las noticias.

Por otra parte, en las normas dictadas por el Con sejo de Organizaciones Internacionales de las Ciencias Médicas (CIOMS) de 2016, se da la posibilidad de re colectar y almacenar datos con fines de investigación, haciendo uso de un consentimiento informado amplio43. En consecuencia, ya se han emprendido iniciati vas como para generar registros de datos médicos que puedan servir para investigaciones futuras, donde en el presente no se tiene claridad de la pregunta de in vestigación a la que pueden dar respuesta. En lo relativo a los datos, se ha dictaminado que la información que surja desde la ficha clínica, los estudios y demás documentos de registro de procedimientos y tratamientos, serán considerados como “dato sensible”, por lo cual deben ser resguardados y no pueden ser utilizados sin el consen timiento informado de los pacientes42. Aun así, existe la posibilidad de usar datos recolectados para otros fines y, por ende, sin consentimiento para estudios de in vestigación, previa autorización a un Comité de Ética. El horizonte de uso de la producción masiva de datos en salud es inconmensurable y, por ende, cada año se incrementa exponencialmente el número de ar tículos científicos que reportan estudios donde se usan Big Data en diferentes disciplinas relacionadas con la salud16,24. A continuación, se describirán algunas ex periencias de aplicación en pediatría de datos masivos y las estrategias de procesamiento y análisis descritas anteriormente en el acápite anterior.

Detalles del artículo

En [16] los autores proponen un teorema llamado “HACE” (Heterogeneous, Autonomous, Complex y Evolving), con el cual buscan describir las características de la revolución de Big Data. Es más, aunque no fue un objetivo planteado al inicio de este trabajo, se logró identificar a lo largo del desarrollo del mismo casos concretos del uso del análisis de big data en favor de los derechos humanos. Como se mencionó al inicio de este trabajo, es común encontrar en la literatura relacionada al derecho internacional y el big data el tema recurrente de la protección de datos y la privacidad, ya que los análisis de grandes cúmulos de datos requieren de la materia prima que representan los datos generados por los individuos para recolectarlos y, posteriormente, tratarlos. Sin embargo, en esta contribución se quiso abrir el tema de la técnica de análisis de grandes cúmulos de datos en relación no solo a la protección de los datos personales y la privacidad de los individuos, sino también evidenciando que hay otros derechos humanos que pueden verse vulnerados con los análisis de grandes cúmulos de datos.

articulos cientificos de big data

.