Inteligencia artificial, aprendizaje automático (learning machine), ciencia de datos, minería de datos, macro datos (big data) y otros términos parecidos afloran estos días en gran parte de la ciencias y los especialistas de cada área buscan sus posibles aplicaciones. En nuestro ámbito, el de Agrimensura, ¿Aplicará? ¿Es una preocupación que deberíamos tener?
Este artículo busca respuestas a estas preguntas en una primera aproximación. !Veamos…! , desarrollemos someramente el tema.
Primero, en una búsqueda rápida en internet encuentro estas definiciones:
— Inteligencia artificial
La inteligencia artificial (IA), es la inteligencia llevado a cabo por máquinas. En ciencias de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.
(Fuente Wikipedia)
— Ciencia de datos
La ciencia de datos es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sea estructurados o no estructurados.
También se define La ciencia de datos como «Un concepto para unificar estadísticas, análisis de datos, aprendizaje automático y sus métodos relacionados para comprender y analizar los fenómenos reales», empleando técnicas y teorías extraídas de muchos campos dentro del contexto de las matemáticas, la estadística, la ciencia de la información y la informática.
(Fuente Wikipedia)
— Minería de datos
La minería de datos o exploración de datos (es la etapa de análisis de «Knowledge Discovery in Databases» o KDD) es un campo de la estadística y las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos. El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior.
(Fuente Wikipedia)
— Aprendizaje automático (machine learning)
El aprendizaje automático o aprendizaje automatizado o aprendizaje de máquinas (del inglés, machine learning) es el subcampo de las ciencias de la computación y una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información suministrada en forma de ejemplos.
(Fuente Wikipedia)
— Macro Datos (Big data)
Textualmente, Big Data (o macrodatos) se refiere a enormes volúmenes de datos que no pueden procesarse de manera efectiva con las aplicaciones tradicionales que existen. De acuerdo con la guía de Amazon Web Service, esta considera al Big Data como a una cantidad considerable de datos con dificultades para almacenarse en bases de datos tradicionales, para procesarse en servidores estándar y para analizarse con aplicaciones habituales.
El término se suele relacionar con ciencia de datos, pues esta suele ser su fuente de información para análisis; La ciencia de datos logra analizar los grandes conjuntos de datos desordenados e incompletos, para llegar a hallazgos que impulsan decisiones sobre operaciones y productos.
(Fuente Wikipedia)
Segundo, avanzando en la lectura, observo que una forma nueva de construir modelos, mas allá de los modelos estadísticos tradicionales, imposible de realizar antes, es por medio de un análisis de datos y la extracción de conocimiento a partir de los mismos.
Esta tecnología queda habilitada por medios masivos de toma de datos, los avances en las comunicaciones, las posibilidades de computo actuales, y otros medios modernos.
En el librito ‘Machine Learning for dummies. IBM limited edition‘ sus autores, Judith Hurwith y Daniel Kirsch, identifican seis factores que pueden explicar la explosión del machine Learning. Son estos:
— Potencia de los procesadores: la capacidad de computación de los microprocesadores ha aumentado drásticamente en los últimos años lo cual es muy importante para una disciplina, el machine Learning, en que abundan el uso masivo de datos y los algoritmos computacionalmente costosos.
— Almacenamiento: Igualmente, el coste de almacenamiento y gestión de datos ha disminuido drásticamente. Además, se han producido grandes avances en cuanto a la velocidad de ese almacenamiento y en cuanto a las técnicas de procesamiento de grandes cantidades de datos.
— Computación distribuida: desarrollo de la capacidad de hacer computación distribuida entre varios nodos o clusters lo que, de nuevo, favorece el hacer cálculos complejos sobre grandes volúmenes de datos.
— Disponibilidad de datos: disponibilidad comercial de conjuntos de datos sobre los que hacer análisis, en algunos casos disponibles en la nube y por medio de APIs.
— Software abierto: muchos algoritmos de Machine Learning están disponibles como desarrollos open source a través de comunidades con una amplia base de miembros. Esto hace los desarrollos mucho más sencillos.
— Visualización: no sólo se han desarrollado los algoritmos y capacidades computacionales sino que también se han desarrollado y disponibilizado herramientas atractivas de visualización que posibilitan el uso de los resultados por no especialistas.
Sin duda, se trata de seis buenas razones que, unidas al valor intrínseco del Machine Learning, a su capacidad de análisis, de obtención de conclusiones y de predecir elementos del futuro, explican su gran auge actual.
(Fuente: http://ignaciogavilan.com/seis-habilitadores-clave-del-machine-learning/ )
Otro artículo menciona:
Existen diversos factores, con origen fundamentalmente en la tecnología, que impulsan el uso de estas técnicas de Data Science en un conjunto amplio de sectores. Estos factores pueden agruparse en cuatro ejes: (i) el incremento sin precedentes del volumen y tipología de datos disponibles, (ii) la conectividad y el acceso al dato, (iii) la mejora de los algoritmos utilizados y (iv) el aumento de la capacidad computacional de los sistemas.
Tercero, a partir de este breve análisis de introducción, adjunto información más relevante para que ustedes saquen sus propias conclusiones:
https://www.managementsolutions.com/sites/default/files/publicaciones/esp/machine-learning.pdf
Cuarto: Luego queda responder si la pregunta: ¿Aplicará a nuestra área de trabajo?.
La respuesta es “sí”, nosotros trabajamos con datos y modelos, especiales por cierto, pero datos al fin. Son datos espaciales y es la única característica que los hace diferentes. Por otro lado, la masividad de datos a tratar, es otra característica de estas técnicas, y observamos que esta cualidad esta cada día mas presente entre nosotros: Nube de puntos provenientes de barredores láser, métodos de fotogrametría digital (convencional, cercana y lejana), múltiples sensores georeferenciados y otros dispositivos de medición nos proveen gran cantidad de datos a tratar, a diferencia de nuestros anteriores métodos tradicionales.
Quedaría decir algunas palabras para ver si los requerimientos de estas nuevas posibilidades son factibles de utilizar para solucionar nuestros problemas y la de nuestros clientes.
En un listado tentativo encuentro:
— Aplicaciones para facilitar el trabajo bajo el concepto de «Ciudades inteligentes», como respuesta a los problemas de urbanización y crecimiento poblacional.
— Problemas ecológicos y de desarrollo sostenible
— Valuaciones masivas de propiedades y nuevos métodos de valuación.
— Catastros multi-propósito e información para el planeamiento
— Modelizado 3D
— Utilización de los datos en los Sistemas de Información Geográfica de uso en un amplio espectro.
— La cantidad de información provista por «Internet de las cosas» y la necesidad de georeferenciación para cartografiar los objetos.
—Otras
Estos y otros temas, son algunas de las posibilidades que necesitan este tipo de tecnología.
Por último, sin dubitaciones, a nuestros centros de estudios los insto a integrar estos temas a su agenda.