IBMEmpresas Eventos 

IBM revela cinco innovaciones que cambiarán nuestras vidas en los próximos cinco años

IBM

Avances marcarán la era de sistemas cognitivos cuando las computadoras tengan – a su modo –  la capacidad de ver, oler, tocar, gustar y oir.

Caracas, 10 de enero de 2013. IBM (NYSE: IBM) presentó la séptima edición de su serie anual “IBM 5 en 5” (#ibm5in5), una lista de innovaciones que tienen el potencial de cambiar la forma en que la gente trabaja, vive e interactúa, durante los próximos cinco años.

  • Tacto: podremos tocar a través de un teléfono
  • Vista: un pixel valdrá mil palabras
  • Oído: las computadoras escucharán lo que realmente importa
  • Gusto: papilas gustativas digitales ayudarán a una alimentación más saludable
  • Olfato: las computadoras tendrán sentido del olfato

“5 en 5” de IBM se basa en las tendencias de la sociedad y el mercado, así como en tecnologías emergentes de los laboratorios de investigación y desarrollo de IBM en el mundo, que pueden hacer realidad estas transformaciones.

Este año, la serie “5 en 5” explora innovaciones que serán fundamento de la próxima era de la computación, que IBM describe como la era de los sistemas cognitivos. Esta nueva generación de máquinas aprenderá, se adaptará, sentirá y comenzará a experimentar el mundo como realmente es. Las predicciones de este año se concentran en un único elemento para una nueva era: la capacidad de las computadoras de imitar los sentidos humanos a su modo – de ver, oler, tocar, gustar y oír.

Esta capacidad de las máquinas de detectar con los sentidos nos ayudará a ser más conscientes y productivos. Los sistemas de computación cognitiva nos ayudarán a ver en medio de la complejidad, a mantenernos actualizados con la velocidad de la información, a tomar decisiones más informadas, a mejorar nuestra salud y estándar de vida, a enriquecer nuestras vidas y a romper todo tipo de barreras, como las de la distancia geográfica, los idiomas y la inaccesibilidad.

“Los científicos de IBM en todo el mundo están colaborando en avances que ayudarán a las computadoras tener sentido del mundo que les rodea, del mismo modo que el cerebro humano usa los sentidos para relacionarse con el mundo ,” comentó Bernie Meyerson,
IBM Fellow y VP de Innovación. “Al combinar estos avances, los sistemas cognitivos aportarán aún más valor y conocimiento, permitiéndonos resolver algunos de los desafíos más complejos e incluso impactando positivamente sectores como el de la salud, el comercio y la agricultura.”

A continuación cinco predicciones que definirán el futuro:

Tacto: Podremos tocar a través de un teléfono

Imagínese usar su smartphone para comprar su vestido de matrimonio y poder sentir el satén o la seda del traje, o la puntilla del velo, todo desde la superficie de la pantalla. O qué tal sentir el bordado y entramado de una manta hecha por un artesano local que vive al otro lado del mundo. En cinco años, sectores como el minorista serán transformados por la capacidad de “tocar” un producto a través del dispositivo móvil.

Los científicos de IBM están desarrollando aplicaciones para los sectores minorista, salud y otros, utilizando tecnologías sensibles a la presión, infrarrojo y táctil, para simular el tacto, por ejemplo, que cuando una compradora pase el dedo por la imagen del artículo en una pantalla de un dispositivo pueda sentir la textura y el entramado de una tela. Utilizando las capacidades de vibración del teléfono, cada objeto tendrá un conjunto único de patrones de vibración que representa la experiencia del tacto: patrones cortos y rápidos, o cadenas más largas y fuertes de vibraciones. El patrón de vibración diferenciará a la seda del lino o el algodón para simular la sensación física de estar tocando realmente el material.

Los usos actuales de la tecnología gráfica y táctil en la industria del juego llevan al usuario a un entorno simulado. La oportunidad y el desafío consisten en hacer la tecnología tan omnipresente e integrada a las experiencias cotidianas que nos ofrezca un contexto más amplio a nuestras vidas. Esta tecnología se volverá omnipresente en nuestras vidas cotidianas, y los teléfonos móviles serán herramientas de interacción natural e intuitiva con el mundo que nos circunda.

Vista: Un píxel valdrá mil palabras

Tomamos 500 mil millones de fotos por año (1). 72 horas de video se cargan a YouTube por minuto (2).  Se estima que el mercado global de imágenes de diagnóstico médico crecerá a US$26.6 mil millones en 2016 (3).

Las computadoras hoy sólo entienden imágenes por el texto que utilizamos en su etiqueta o título, pero la mayoría de la información – el contenido de la imagen en sí – continúa siendo un misterio.

En los próximos cinco años, los sistemas no sólo podrán mirar y reconocer los contenidos de imágenes y datos visuales, sino que también convertirán los píxeles en un significado, comenzando a dar sentido en forma análoga a la que un humano visualiza e interpreta una fotografía. En el futuro, capacidades “como las del cerebro” permitirán a las computadoras analizar características como el color, patrones de textura o información sobre bordes y extraer conocimientos a partir de los medios visuales. Esto tendrá un profundo impacto para sectores como atención de la salud, minorista y agricultura.

Dentro de cinco años, estas capacidades se pondrán a trabajar en el área de salud para interpretar volúmenes masivos de información médica, como imágenes de resonancias magnéticas, tomografías computadas, rayos X y ultrasonido para captar información adaptada a la medida de una anatomía o patologías en particular. Lo que es crítico en estas imágenes puede ser sutil o invisible al ojo humano y requiere una medición cuidadosa. Al entrenar los sistemas para que puedan discriminar qué buscar en las imágenes, por ejemplo, diferenciar tejidos sanos de tejidos enfermos, y correlacionar esa información con las historias clínicas de los pacientes y la literatura científica, los sistemas que pueden “ver” ayudarán a los médicos a detectar problemas con más velocidad y exactitud.

Sonido: Las computadoras escucharán lo que realmente importa

¿Alguna vez deseó dar sentido a los sonidos que lo rodean y entender lo que no se está diciendo?

En cinco años, un sistema distribuido de sensores inteligentes detectará elementos del sonido, como la presión, vibraciones y ondas sonoras en diferentes frecuencias. Interpretará esta información para predecir en qué momento caerá un árbol en un bosque o la inminencia de un derrumbe. Ese sistema “escuchará” nuestro entorno y medirá movimientos, o la tensión en un material, para prevenirnos si se avecina algún peligro.

Los sonidos sin procesar serán detectados por sensores, en forma muy similar a como actúa el cerebro humano. Un sistema que recibe estos datos tendrá en cuenta otras “modalidades”, tales como información visual o táctil y clasificará e interpretará los sonidos con base a lo ya aprendido. Cada vez que se detecten nuevos sonidos, el sistema extraerá conclusiones sobre la base del conocimiento anterior y la capacidad de reconocer patrones.

Por ejemplo, “el lenguaje de los bebés” se entenderá como un idioma y permitirá decir a los padres o médicos lo que los niños pequeños están tratando de comunicar. Al comprender qué significan los sonidos de los bebés, o cuándo el llanto puede indicar que el bebé tiene hambre, calor, cansancio o dolor, un sofisticado sistema de reconocimiento del habla podría correlacionar los sonidos y balbuceos con otra información sensorial o fisiológica, como el ritmo cardíaco, el pulso y la temperatura.

En los próximos cinco años, aprendiendo sobre las emociones y pudiendo detectar los estados de ánimo, los sistemas identificarán aspectos de una conversación y analizarán la altura de voz, el tono y la vacilación para ayudarnos a tener diálogos más productivos que podrían mejorar las interacciones con clientes en el call center, o permitirnos interactuar sin problemas con diferentes culturas.

Hoy los científicos de IBM están comenzando a captar los niveles de ruido bajo del agua en la Bahía de Galway (Irlanda), para entender los sonidos y las vibraciones de las máquinas de conversión de la energía de las olas y el impacto de la vida marítima, utilizando sensores subacuáticos que captan las ondas sonoras y las transmiten a un sistema receptor para su análisis.

Gusto: Papilas gustativas digitales para una alimentación más sana

¿Qué pasaría si pudiéramos hacer que los alimentos saludables fueran todos deliciosos, utilizando un tipo distinto de sistema de computación construido para la creatividad?

Los investigadores de IBM están desarrollando un sistema de cómputo que realmente experimenta el sabor, para ser utilizado con chefs, con el objetivo de crear las recetas más sabrosas y novedosas. Descompondrá los ingredientes a nivel molecular y combinará la química de compuestos alimenticios con la psicología que hace que prefiramos ciertos sabores y olores antes que otros. Al comparar esto con millones de recetas, el sistema podrá crear nuevas combinaciones de sabores, por ejemplo, castañas tostadas con otros alimentos, tales como remolacha, caviar fresco y jamón crudo.

Un sistema como este también puede usarse para ayudarnos a comer en forma más saludable, creando nuevas combinaciones de sabores que nos harán desear más un plato de verduras a la cacerola que una porción de papas fritas.

La computadora podrá usar algoritmos para determinar la estructura química de los alimentos y explicar por qué cada persona tiene preferencias por ciertos gustos. Estos algoritmos examinarán cómo los químicos interactúan entre sí, la complejidad molecular de los compuestos de sabores y su estructura de asociación y, usar dicha información junto con modelos de percepción para predecir la atracción hacia ciertos sabores.

No sólo se podrá hacer alimentos saludables más gustosos al paladar, sino que además nos sorprenderá con combinaciones inusuales de alimentos, diseñadas para maximizar nuestra experiencia del gusto y el sabor. En el caso de personas con necesidades dietarias especiales, tales como personas con diabetes, desarrollaría sabores y recetas para mantener su nivel de azúcar en la sangre regulado, pero permitiéndoles satisfacer su deseo de comer cosas dulces.

Olfato: Las computadoras tendrán un sentido del olfato

Durante los próximos cinco años, diminutos sensores incorporados a las computadoras o los celulares detectarán si el usuario está por contraer un resfriado o alguna otra enfermedad. Mediante el análisis de los olores, biomarcadores y miles de moléculas en la respiración de una persona, los médicos tendrán ayuda para diagnosticar y monitorear el comienzo de afecciones hepáticas y renales, asma, diabetes y epilepsia, entre otras, detectando cuáles olores son normales y cuáles no.

Hoy los científicos de IBM ya están detectando condiciones ambientales y gases para preservar las obras de arte. Esta innovación se empieza a aplicar en el ámbito de la higiene clínica, uno de los mayores retos en la atención sanitaria hoy día. Por ejemplo, las bacterias resistentes a antibióticos, como el estafilococo áureo resistente a la meticilina (MRSA), que en 2005 se asoció con casi 19.000 muertes relacionadas con enfermedades hospitalarias en los EEUU, se encuentra comúnmente sobre la piel y puede transmitirse con facilidad cuando las personas están en contacto cercano. Una forma de combatir la exposición a MRSA en hospitales es asegurar que el personal médico siga las pautas de higiene hospitalaria. En los próximos cinco años, la tecnología IBM “olerá” superficies para detectar desinfectantes con el objetivo de determinar si las habitaciones han sido desinfectadas. Utilizando novedosas redes tipo malla inalámbrica, los datos sobre diversos productos químicos serán recopilados y medidos por sensores y, aprenderán y se adaptarán continuamente a nuevos olores con el tiempo.

Debido a los avances en tecnologías de sensores y comunicaciones, en combinación con sistemas de aprendizaje profundo, los sensores pueden medir datos en lugares que antes eran inimaginables. Por ejemplo, pueden usarse sistemas de cómputo en la agricultura para “oler” o analizar la condición del suelo para los cultivos. En entornos urbanos, esta tecnología se utilizará para monitorear cuestiones relacionadas con refugios, saneamiento y contaminación, ayudando a las agencias de las ciudades a detectar problemas potenciales antes de que se ya no se puedan controlar.

(1)      Digital Media Analysis, Search and Management Workshop, 2/27-2/28, 2012: http://lab.softwarestudies.com/2012/02/world-diary-how-many-photos-do-we-take.html

(2)    YouTube: http://www.youtube.com/t/press_statistics

(3)      MarketsAndMarkets Diagnostic Imaging Market Competitive Landscape & Global
Forecasts 2010-2016 http://www.marketsandmarkets.com/Market-Reports/diagnostic-imaging-market-411.html

Relacionados

Dejar un comentario

Abrir chat
Escanea el código
Hola 👋
¿En qué podemos ayudarte?