Suscríbase y conozca cada mes novedades de GESCONSULTOR y mejores prácticas para
sus proyectos de Sistemas de Gestión. Consulte y acepte la Política de Privacidad

Big Data, el reto de transformar información masiva en conocimiento de calidad, sin vulnerar la intimidad de las personas

Nuestra sociedad actual, cada vez más, se acoge al aforismo renacentista de “Scientia potentia est;…” (el conocimiento es poder), recogido en la obra “Leviatán”, primera parte (De Homine), cap. X, de Thomas Hobbes.

 El trepidante avance tecnológico está permitiendo el procesamiento masivo de información. Software y hardware permiten la computación de cantidades ingentes y variadísimas de datos. El resultado del proceso es la obtención de conocimientos que, desde un punto de vista cuantitativo o cualitativo, puede ser de gran utilidad para la toma de decisiones, entre otros, en el ámbito de la Administración pública (Smart Cities), en el campo de la Ciencia y, por supuesto, en el tráfico económico o mercantil.

 Karl Erik Sveiby – uno de los pioneros en empezar a hablar de los conceptos de gestión del conocimiento, de capital intelectual y de medición de intangibles – nos dice que  la información tiene poco valor por sí misma y sólo se convierte en conocimiento cuando es procesada por el cerebro humano.  Pues, qué duda cabe que la computación informática actual supera el procesamiento hecho por nuestro motor cognitivo y puede generar información valiosísima, conocimiento de calidad.

 Enric Serradell y Ángel A. Juan, acorde con el anterior autor, manifiestan en el artículo “La gestión del conocimiento en la nueva economía” de la UOC, que “la información, cuantitativa y cualitativa es una parte fundamental del conocimiento y, por tanto, gestionarla correctamente será condición necesaria si se desea llevar a cabo una gestión del conocimiento de calidad.

 En este sentido, los proyectos actuales de investigación se centran en cómo las organizaciones son capaces de identificar aquella información que les resulte crítica, la cual, una vez tratada, se convertirá en conocimiento crítico, indispensable para la explotación y el mantenimiento de las ventajas competitivas basadas en el conocimiento”.

 En la búsqueda de cómo alcanzar este conocimiento, nos encaminaron los ponentes de la jornada celebrada por la APEP, el 8 de junio de 2015, en el Ateneo Mercantil de Valencia, “Big data, retos de los grandes volúmenes de datos”. #BigDataAPEP

 Así, nos ilustraron acerca del fenómeno del Big data, aproximándonos a la aplicación práctica en diferentes campos, señalándonos sistemas o aplicaciones libres para la computación masiva de datos, así como incidieron en qué labor tienen por delante profesionales de diferentes disciplinas en esta materia.

 Entre estos profesionales, es relevante la participación del  jurista especializado en privacidad, pues el procesamiento masivo de los datos ha de estar sometido a una disociación, mediante la cual se preserve la intimidad, personal o familiar, así como la protección de toda información concerniente a la persona.  Y, a estos efectos, entendemos que esto ha de ser considerado desde el momento en que se diseña el sistema mediante el que se llevará a término el procesamiento, es decir, aplicar el privacy by design.

 En definitiva, son varios retos los que nos plantea el tratamiento masivo de datos, y es el momento de que a nivel profesional empecemos a abordar todas las facetas, pues el conocimiento de calidad que nos aporta la operación permitirá grandes avances en nuestra sociedad, sin que por esto se hayan visto coartados los derechos fundamentales del ciudadano.

URL corta: http://goo.gl/KxL5Wm
Publicado en blog por Patrick Monreal el Martes 9 junio 2015.
Tags: ,

Escribir un Comentario

You must be logged in to post a comment.