Cabe aclarar que en este documento no se reportará la totalidad de los artículos arrojados por la herramienta, se ha realizado una selección de los documentos que cubren la temática, permitiendo tener una visión general del estado del arte y de las tendencias y campos de trabajo. Como primera estrategia, se hizo un acercamiento cienciométrico por medio de la herramienta bibliográfica SCOPUS, un índice bibliográfico que contiene una colección representativa, completa y multidisciplinar a nivel mundial. La segunda estrategia comprende el análisis de algunos trabajos particulares referentes al soporte y estructura conceptual de la temática abordada.
- No obstante, las organizaciones privadas están dispuestas a sacrificar exactitud o precisión mientras se genere beneficio económico.
- Es importante mencionar que la República de Corea proporciona acceso a información anónima de pacientes con COVID-19, incluyendo el historial médico de cinco años de cada paciente, con el fin de que al realizar un estudio de trazabilidad mediante aprendizaje profundo se cuente con una alta cantidad de información útil a estos propósitos.
- Este tipo de desarrollos pueden ser personalizados, pues al aplicar algoritmos de aprendizaje predictivo se minimizan los riesgos al formular tratamientos que pueden establecer si un paciente los tolera o no.
- En los países europeos se encuentra un número también significativo de trabajos, mientras que en Sur América, Oceanía y África, el desarrollo de investigaciones en el campo es aún incipiente.
- Sobre la “Veracidad” y “Valor”, es imprescindible que los datos almacenados sean veraces, de lo contrario se estarían dilapidando recursos computacionales valiosos en información poco confiable o inservible, que derivan en resultados y toma de decisiones incorrectas.
Es decir, puede perfilarse en diversos contextos como la diseminación del virus en una determinada zona bajo parámetros climatológicos, factores de densidad demográfica, patrones de movilidad, características fenotípicas del virus con respeto a sus otras familias y medioambiente, detección de anomalías a nivel celular y/o molecular, entre muchos otros aspectos. Para este tipo de desarrollo, el Big Data se vale de la IA a través de diversos algoritmos aplicados bien en el aprendizaje profundo como en el aprendizaje automático mencionados anteriormente. Es importante mencionar que la República de Corea proporciona acceso a información anónima de pacientes con COVID-19, incluyendo el historial médico de cinco años de cada paciente, con el fin de que al realizar un estudio de trazabilidad mediante aprendizaje profundo se cuente con una alta cantidad de información útil a estos propósitos. Para proteger la privacidad del paciente, quienes ejecutan el código son un grupo especializado, y luego una vez procesado devuelven los resultados a los investigadores. Este estudio es de especial interés porque permite realizar monitoreos epidemiológicos, caracterizando aquella población que se enferma, pero no ingresa a un hospital, o de aquellos que nunca muestran síntomas. Así, con la investigación empleando IA, se logra obtener información predictiva que ayuda a las autoridades sanitarias a tomar cartas sobre el asunto.
Indicadores
Es importante también, tener en cuenta cómo en el área de la industria y los negocios se ha presentado una explosión en el número de datos, causada principalmente por el rápido desarrollo del internet, nuevos conceptos como el internet de las cosas y la computación en la nube. Big data se ha constituido como un “tópico caliente” que atrae la atención no solo de la industria, sino también de la academia y del Gobierno. Los autores presentan desde diferentes perspectivas el significado y las oportunidades que nos brinda el ecosistema Big Data y dan una serie de condiciones necesarias para que un proyecto de Big Data sea exitoso. En segundo lugar, para trabajar de forma eficiente con Big Data se requiere explorar y encontrar la estructura central o el kernel de los datos a ser procesados, ya que al tener esto se puede caracterizar el comportamiento y las propiedades subyacentes a Big Data. En tercer lugar, se debe adoptar un modelo de administración top-down, se puede considerar también un modelo bottom-up, sin embargo, solo serviría cuando se trata de problemas específicos, y luego tratar de unirlos para formar una solución completa es complejo. Por último, los autores exponen la necesidad de abordar desde los proyectos Big Data soluciones integradas, no con esfuerzos aislados [15].
Esta especificidad radica en el hecho que mediante procesos de extracción de características morfológicas sobre el objeto de estudio (Márquez, 2019), se validan con respecto a patrones propios de otras enfermedades, estableciéndose factores de similitud, bien en cuanto a la geometría del tejido, lesiones en el mismo y variaciones de intensidad, entre otros. El aprendizaje automático es una disciplina de la IA que se vale de algoritmos que permiten la identificación de patrones, efectuar predicciones, aprender de los datos y toma de decisiones. Para el caso del COVID-19, el aprendizaje automático se emplea para el diagnóstico e identificación de población que está en mayor riesgo de contagio. También se emplea para el desarrollo más rápido de medicamentos, incluyendo el estudio de reutilización de medicamentos que han sido probados para el tratamiento de otras enfermedades. La inteligencia artificial o IA puede entenderse como una disciplina perteneciente a las ciencias de la computación, que plantea modelos computacionales de aprendizaje basado en redes neuronales biológicas humanas.
La utilidad del Big Data en las estadísticas públicas y empresas privadas
Para el caso particular del COVID-19, se genera gran cantidad de datos que, al emplear la IA para analizarlos permite diferenciar familias, tratamientos, riesgos, etc., que confluye a disminuir costos en el diagnóstico y tratamiento de un paciente, salvando en el proceso miles de vidas. Por consiguiente, el emplear de manera asertiva los cinco adjetivos mencionados deben garantizar información veraz y confiable para poderlas implementar en sistemas de IA de aprendizaje profundo, aprendizaje máquina o ambos. En el caso del COVID-19 se han desarrollado diferentes tipos de algoritmos tendientes a la detección temprana de problemas pulmonares, bien a través de imágenes de rayos X (Sánchez, Torres & Martínez, 2020), tomografías o ultrasonido (Fraile, 2020). Las investigaciones en curso basan su desarrollo en la ciencia de datos, debido a que esta proporciona herramientas de análisis que permiten plantear soluciones plausibles bien para lidiar con futuras pandemias como con tratamientos actuales de frente al COVID-19.
Este estudio se propone comparar el impacto del Big Data en las empresas privadas y los institutos de estadísticas nacionales, a partir de una amplia búsqueda de información especializada. El análisis desarrollado, de carácter exploratorio, describe las diferencias en los diseños metodológicos, objetivos o resultados, riesgos, regulaciones, Bootcamp vs. curso online: por qué los programas de TripleTen son la mejor opción participantes, entre otros elementos que cobran diferentes valoraciones en el entorno de la producción de las estadísticas públicas en comparación al sector empresarial privado. Como consecuencia, estos elementos ofrecen la posibilidad de explorar la valoración de la calidad de los datos que operan en los entornos públicos y privados.
Informações
Con esto en mente, se muestra la correspondencia entre las tecnologías disruptivas y la información crítica, creando sinergias que permiten elaborar sistemas más avanzados de estudio y análisis facilitando la obtención de datos relevantes para la toma de decisiones sanitarias. En [53] se hace énfasis en la utilización de técnicas de Inteligencia https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten Artificial (IA) para facilitar la captura y estructuración de grandes volúmenes de datos y también cómo se han implementado para el análisis de estos. Se presentan algunas preocupaciones respecto a la integración de IA con Big Data, que no se resuelven solo con pensar en la distribución y paralelización, sino que requieren otros análisis.
Con esto en mente, los costos de investigación y desarrollo se reducen ostensiblemente, viéndose reflejados en el valor final del medicamento para el paciente y sector salud en general. Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas. La inteligencia artificial y el Big Data se articulan para poder lidiar con diferentes problemas relacionados con el análisis de datos masivos, en particular información de la COVID-19. En el presente artículo se muestran algunos proyectos de investigación relacionados con el aprendizaje profundo, el aprendizaje automático, el Big Data y la ciencia de datos, tendientes a dar soluciones plausibles bien en el monitoreo, detección, diagnóstico y tratamiento de las enfermedades asociadas con el virus.