Crean silla de ruedas con IA que se controla con el rostro

Dispositivo diseñado por la compañía Hoobox Robotics e Intel

La empresa brasileña Hoobox Robotics, en colaboración con el gigante tecnológico Intel, lograron sorprender al presentar un kit adaptador que permite controlar casi cualquier silla de ruedas eléctrica mediante las expresiones faciales del usuario.

Este dispositivo llamado Wheelie 7 forma parte del equipamiento de una silla de ruedas con inteligencia artificial que es capaz de detectar los gestos y procesar los datos en tiempo real, para dirigir a la silla y darle el movimiento que se requiere.

El sistema cuenta con un gran repertorio de gesticulaciones, por lo que el Wheelie 7 identifica al usuario cuando sonríe, levanta las cejas o realiza cualquier otro gesto, todo esto es posible gracias a la implementación de inteligencia artificial en colaboración con Intel, para el desarrollo de este proyecto.

Además, las personas que usan este dispositivo pueden personalizar y sincronizar las expresiones con el movimiento que la silla debe hacer, pues hasta el momento se tiene registrado que 60 personas con dificultades de movilidad han probado esta tecnología y los resultados han sido exitosos.

Ante ello, el cofundador y CEO de Hoobox robotics, Paulo Pinheiro, señaló que Wheelie 7 es el primer producto que usa las expresiones faciales de los pacientes par dar movimientos a una silla de ruedas.

CES 2019: Se presentó un horno con realidad aumentada que enseña a cocinar

Como era de esperarse en CES 2019, la feria de tecnología más grande del mundo, Whrilpool mostró una nueva creación llamada ‘Connected Hub Wall Oven’ es un horno conectado con una particularidad: tiene realidad aumentada (RA). Posee una pantalla transparente LCD de 27 pulgadas, que cubre toda la puerta del horno. Conectado a una aplicación y software de inteligencia artificial (IA), que enseña cómo cocinar y preparar los alimentos. Permite, por ejemplo, programar el calendario de una familia y estipular un horario para esa comida.

Otra de las cosas que el horno mostrará será qué ingredientes se necesitan para la cena  que se desee hacer y le enseñará al usuario la forma de como prepararlo.

Posteriormente, una vez que los alimentos están adentro, hay cámaras de alta definición que, a través de un sistema de inteligencia artificial, reconoce qué tipo de alimento se introdujo. Y en función de eso, recomienda el lugar preciso del horno donde ubicarlo para mejorar la cocción. Por lo que cabe mencionar que los tiempos de cocción y la temperatura del horno son automáticamente configurados por la IA que el horno tiene.

Una de las ventajas más destacadas de la tecnología de RA en el horno, es que se puede ver la comida, y mientras se está preparando es posible hacer un zoom virtual sobre el plato, sin necesidad de abrir la puerta del horno.

La pantalla es táctil (aunque esté prendido no toma el calor) y corre con la app Yummly. Y también es posible que el display luzca transparente, como en un horno común, cuando no se ejecuta la RA.

Con respecto al costo y fechas de lanzamiento este es solo un concepto que la empresa está presentando en la CES 2019, por lo que se desconoce información al respecto. Sin embargo, WLabs asegura que probablemente tomará un tiempo prudente, ya que se deben tomar en cuenta los comentarios obtenidos por los asistentes a la feria u otros para llegar a la versión final, lista para el comprador.

Google Visión

El reconocimiento de imágenes a tu alcance

Hoy en día, la mayoría de las empresas tecnológicas están apostando por la inteligencia artificial como elemento clave de las mismas, ya sea como complemento a sus productos o como base para generar nuevos servicios en un futuro nada lejano.

Actualmente se ha hablado de diferentes herramientas o aplicaciones de IA en Google, como el traductor DeepL, su nuevo sistema operativo Android 9 o su famoso altavoz Google Home.

Sin embargo, hoy nos vamos a centrar en una nueva herramienta que es la clave para cualquier desarrollador que quiera experimentar con la inteligencia artificial de Google Visión, el cual es una API que permite a los desarrolladores comprender el contenido de una imagen mediante el uso de potentes modelos de aprendizaje automático (machine learning).

Esta API clasifica las imágenes rápidamente en miles de categorías (por ejemplo, “coche”), detecta objetos y caras determinadas dentro de dichas imágenes y es capaz de leer las palabras impresas que contengan. De este modo, es posible crear metadatos en tu catálogo de imágenes, moderar el contenido ofensivo u optimizar nuevas campañas de marketing mediante el análisis de opinión en imágenes.

Funciones de Google Visión

Gracias a Google Vision es posible extraer información tan valiosa de las imágenes como esta:

Detección de etiquetas: detecta amplios conjuntos de categorías en una imagen, desde medios de transporte hasta animales.

Detección web: busca imágenes similares en Internet.

Reconocimiento óptico de caracteres (OCR): detecta y extrae texto de una imagen. Esta función es compatible con un gran número de idiomas y con la identificación automática de idiomas.

Reconocimiento de escritura a manoBETA.

Detección de logotipos.

Localizador de objetosBETA: no solo identifica un objeto en una imagen, sino que podrás identificar en qué parte de la imagen se encuentra dicho objeto y cuántos objetos de ese tipo hay en la imagen.

Detección de puntos de referencia: detecta estructuras artificiales y naturales muy famosas dentro de una imagen.

Detección de caras: detecta varias caras en una imagen, además de sus atributos faciales clave, como el estado emocional o las prendas que lleva en la cabeza. No admite el reconocimiento facial.

Moderación de contenido: detecta contenido explícito, como el dirigido a adultos o el de carácter violento.

Búsqueda de productosBETA: reconoce los productos de un determinado catálogo en fotos web y móviles.

Atributos de imagen: detecta los atributos generales de la imagen, como el color dominante, y ofrece sugerencias de recorte pertinentes.

Precio de Google Visión

Los precios de la API Google Vision van en función del número de imágenes a procesar.Hasta 1000 unidades al mes, se puede disfrutar de la herramienta de manera gratuita, incluyendo todas las funcionalidades. A partir de ahí, cada servicio tiene una tarifa diferente, que se va aumentando en función del rango de número de imágenes: entre 1000 y 5 millones y entre 5 millones y 20 millones.

Chatbot AIRe, el asistente inteligente que te ayuda a reciclar

La contaminación del aire provocada por los combustibles fósiles y los desperdicios que generamos que acaban en los mares, están haciendo de muchas de nuestras ciudades unos lugares poco recomendados para la salud.

Y como ya sabemos, la IA es una herramienta con múltiples posibilidades, lo cual ha aprovechado la organización Ecoembes para crear un chatbot ecologista: AIRe.

¿Qué es el chatbot AIRe?

En primer lugar, para quien no la conozca, Ecoembes es la organización que cuida del medio ambiente a través del reciclaje y el ecodiseño de los envases en España. Se encargan de que los envases de plástico, latas y briks (contenedor amarillo) y los envases de cartón y papel (contenedor azul) puedan tener una segunda vida.

A pesar de que el reciclaje es una práctica ampliamente extendida, en ocasiones puede surgir la duda acerca de en qué contenedor hay que depositar determinados envases, ya sea por su composición o por su apariencia. Ante esta problemática, Ecoembes ha hallado la solución en la inteligencia artificial: el Asistente Inteligente de Reciclaje AIRe.

Este chatbot ha sido desarrollado por el centro de innovación de economía circular The Circular Lab y hace uso de la IA para responder, a través de imagen, voz y texto, a las dudas de los ciudadanos sobre el reciclaje.

¿Cómo funciona este asistente virtual del reciclaje?

AIRe es capaz de reconocer la voz y texto del usuario, pero la verdadera característica diferencial es que también reconoce la imagen, de manera que los ciudadanos pueden enviar una foto del residuo que no sepan cómo reciclar y el asistente les dará una respuesta inmediata.

Aun así, este chatbot estará dirigido por humanos que serán los que respondan cuando AIRe no sea capaz de ofrecer soluciones a las dudas que se le planteen. Como consecuencia del uso del autoaprendizaje, el asistente irá mejorando sus respuestas y será más autónomo.

Esta IA se basa en el sistema de “machine learning” o aprendizaje automático y cuenta con reconocimiento de lenguaje natural (Google DialogFlow), reconocimiento de voz (Google Speech to Text) y reconocimiento visual (Google Vision y Amazon Rekognition).

El chatbot AIRe responde a todas tus cuestiones en castellano, catalán, gallego o euskera las 24 horas del día, y se encuentra disponible de forma gratuita en Google Play, App Store, Facebook Messenger y en la web de Ecoembes.


Google y Edebé se alían para mejorar la educación con la inteligencia artificial y Big Data.

Google y el grupo de Edebé han llegado a un acuerdo de colaboración para la producción y distribución de productos educativos digitales en los colegios destinados al aprendizaje adaptativo a través del uso de la inteligencia artificial y el análisis de datos de Big Datfotonoticia_20190211174635_640a.

El aprovechamiento de la inteligencia artificial en las academias ofrecerá al estudiante un aprendizaje personalizado, adaptado a su necesidades, con los contenidos y materias requeridas en su momento.

El director de Google for Education para el sur de Europa, Marc Sanz ha recalcado que con este acuerdo se requiere acompañar a directivos y docentes en el proceso de transformación y evolución de la educación, siendo la tecnología un aliado clave para conseguirlo y apoyar a sus proyectos.pawel-czerwinski-710838-unsplashEl director general de Edebé, Antonio Garrido, ha confirmado que la colaboración  permite abogar por la transformación digital de las academias y dar más tiempo a los docentes para poder personalizar la enseñanza.

El resultado  de la alianza entre Google y Edebé, que requiere impulsar la transformación digital en curso 2019-2020 estarán disponibles los primeros productos para su implementación.

Inteligencia Artificial que crea campaña de forma inteligente pensada en Pymes

 

ADEXT-inteligencia-artificial

Este Software estará promoviendo un producto o servicio las 24/7 en las principales plataformas de internet para atraer más clientes potenciales hacia una página web e incrementar las ventas.

La creación de campaña de anuncios basada en Big Data: Una vez que se haya adquirido el plan más conveniente para el negocio, el robot va guiando al usuario para que proporcione la información necesaria para crear los anuncios: nombre de la empresa, descripción del producto o servicio que ofrece al mercado, palabras clave, imagen de los anuncios, mercado objetivo, locación, objetivos de la campaña, etc. Con esta información, crea la campaña de anuncios y enseña una vista previa de los mismos para que el usuario visualice cómo se verán en Google, Facebook e Instagram

En este proceso inicial de creación de la campaña, ADEXT analiza una gran base de datos de campañas alrededor del mundo (Big Data) para poder determinar y predecir las tendencias y los patrones de éxito que funcionarán mejor para cada tipo de negocio.

  • Optimización de anuncios a través de machine learning: Cuando se lance una campaña de anuncios en las principales plataformas de internet, el robot la optimizará a través de tecnología machine learning. Los algoritmos avanzados del robot van analizando los resultados de la campaña de anuncios para aprender y detectar, conforme pasa el tiempo, qué es lo que está funcionando mejor para el negocio y con estos hallazgos optimiza constantemente la campaña para brindar mejores resultados.
  • Reporte de resultados diario: Se puede monitorear los principales resultados de una campaña desde el dashboard de la plataforma. Los indicadores que ADEXT reporta son: impresiones, clics, visitas, CTR, engagement en redes sociales, información demográfica de los visitantes de la página, dispositivos de acceso y, finalmente, conversiones (registros de clientes potenciales a través de un formulario de contacto; o bien, ventas, en el caso particular de un e-commerce).

ADEXT fue creada pensando en  mercado PYMES. Al brindarles la posibilidad de tener acceso a publicidad avanzada, podrán atraer clientes potenciales que a su vez se traducirán en más ganancias para la empresa.

Habrá chatbots hasta en la sopa, en 2022

Aunque quizá no lo sepa, los chatbot atienden muchas de las cuestiones que en el día a día planteamos a las empresas respecto de sus servicios. Y lo que dicen los expertos es que los tendremos, en unos años, hasta en la sopa.

La semana pasada el Madrid Mutua Máster de Tenis anunció que ponía a disposición de los espectadores que asistían al Torneo un chatbot dotado con inteligencia artificial (IA) que ofrecía información sobre el desarrollo del evento, los jugadores y resultados, así como detalles sobre servicios, accesos y aparcamientos. El MatchBot fue posible gracias a la tecnología de Oracle y sus partners Crambo y BPM SOA Solutions (BSS).

Pero hay muchos más en el mercado, como el que tienen la CNN, The Wall Street Journal y Quartz para ofrecer titulares y noticias a sus clientes de forma interactiva, y permitirles solicitar más profundidad en las informaciones. O como el que tiene el Bank of América, y en el que trabajan actualmente los ingenieros de Facebook para crear una inteligencia artificial comprensiva que ofrezca al cliente mejores servicios en función de los patrones de uso de los servicios bancarios. O como el que utiliza la compañía de Seguros Génesis, que está usando la tecnología IBM de Watson para gestionar las necesidades de sus clientes.
chatbot_0

 

Para mas información visite: https://www.muyinteresante.es/tecnologia/inteligencia-artificial/articulo/habra-chatbots-hasta-en-la-sopa-en-2022-111526045492

Usan reconocimiento facial para localizar niños extraviados.

digeorge-1

De acuerdo con los datos del Ministerio de Desarrollo de la Mujer y el Niño en la India, entre 2012 y 2017 desaparecieron más de 240.000 niños, esto tan sólo de los casos reportados, ya que otras instituciones estiman que la cifra ya supera los 500.000 niños extraviados cada año.

Ante esta problemática, el gobierno de la india se ha visto superado, ya que algunos de estos niños terminan alojados en instituciones de cuidado infantil. Al no existir un departamento dedicado a comparar las fotografías de los niños extraviados con las de aquellos que llegan a las casas de cuidado, la situación se complica y hace que cada vez más niños no regresen con sus padres. Por fortuna, la tecnología  ayuda a través de los sistemas de reconocimiento facial (FRS).

FRS todo un éxito

Con el objetivo de tratar de resolver el asunto de los niños extraviados, y el preocupante aumento de las cifras, el Ministerio creó una base de datos en línea a nivel nacional conocida como TrackChild. Puedes consultar las fotos de los niños desparecidos y encontrados, así como la información policial que puede ser usada por otras agencias e incluso los ciudadanos.

TrackChild también sirve para levantar reportes de niños extraviados, y a pesar de ser una buena herramienta digital al concentrar en un solo sitio todo este tipo de información, la acumulación de fotografías se ha convertido en un problema para las instituciones, quienes no han podido disminuir la tasa de desaparecidos.

Bachpan Bachao Andolan (BBA), una organización dedicada al bienestar infantil, desarrolló un software basado en FRS, que se dedica a comparar de forma automática las fotografías de los niños extraviados en TrackChild con las de los pequeños que llegan a hospitales, casas de cuidado y otras instituciones, además de que se pueden añadir nuevas bases de datos y así ampliar su alcance.

Esta plataforma fue presentada al departamento de policía quienes aceptaron arrancar una prueba piloto. Una vez puesta en marcha, BBA recibió un lote de 45.000 fotografías de la base de datos de TrackChild, y en solo cuatro días lograron identificar a 2.930 niños que se encontraban en diversos sitios del país. Todo un éxito que nadie se esperaba.

A pesar de estas buenas cifras, la autorización fue sólo para esta prueba experimental, por lo que si desean que se establezca como una herramienta más del departamento de policía y de TrackChild, antes de deben superar una gran cantidad de obstáculos legales, ya que al final se trata de la gestión de miles de fotos de menores de edad y sus datos, las cuales estarían dentro de una base de datos perteneciente a una institución privada. Institución que no ha dado detalles del funcionamiento del algoritmo y que no está dispuesta a ceder su tecnología, con años de desarrollo e inversión, aunque se trate de una buena causa. Un tema sin duda complicado.

Move Mirror, el nuevo experimento de Google que compara tus movimientos con miles de imágenes en tiempo real.


1366_2000 (1)

¿Alguna vez te has puesto a bailar frente al espejo? El último experimento de Google con inteligencia artificial, Move Mirror, te propone hacer eso mismo pero frente a la cámara de tu ordenador. Accede a la Web, inicia la experiencia.

Mientras a un lado de la pantalla aparecerás tú, en tiempo real, moviéndote y siendo identificado en cada pose por Move Mirror, al otro la inteligencia artificial te mostrará imágenes que coinciden con la postura que estás adoptando. El efecto flipbook que se crea es curioso. Las instantáneas mostradas se extraen de una base de datos compuesta por más de 80.000 archivos en los que aparecen personas bailando, practicando artes marciales, cocinando o simplemente dando un paseo.

La primera vez que accedas a la web de Move Mirror te saltará un tutorial y una vez des permisos para que el experimento pueda acceder a tu webcam podrás probarlo y, además, llevar parte de tus movimientos y su particular espejo en formato gif. Quedarán para la posteridad.

Google experimenta la tecnología para demostrar capacidades del aprendizaje automático.

Move Mirror forma parte de los AI Experiments de Google, una forma de mostrar mediante aplicaciones simples cuáles son las capacidades del aprendizaje automático y la inteligencia artificial.

Google explica que la estimación de la postura o la capacidad de detectar a los humanos y sus poses a partir de datos de imágenes es “uno de los temas más emocionantes y difíciles del aprendizaje automático y la visión artificial”.

mirrr

En este caso, la compañía y los socios con los que ha desarrollado Move Mirror ha empleado PoseNet, un modelo de estimación de movimientos que proporciona datos de posición de alta precisión a partir de datos de imagen. Incluso, aseguran y así lo podemos comprobar, incluso cuando esas imágenes no tienen toda la calidad deseable.

Esta herramienta portada a TensorFlow.js, además, es de código abierto y permite que cualquier desarrollador web pueda jugar con interacciones corporales sin cámaras especiales ni bibliotecas de visión artificial más complejas de implementar. Porque sí, todo tiene lugar en el navegador, procesándose las imágenes en tiempo real en el propio equipo. Esa es una de las virtudes de esta tecnología en continuo desarrollo.

Robot con IA llegará más allá de la exosfera.


CIMON
La inteligencia artificial es una de las tendencias tecnológicas más importantes de los últimos años, así que la NASA e IBM experimentan con IA en el espacio exterior  enviando un robot con inteligencia artificial a la Estación Espacial Internacional (ISS).

Inteligencia, cara, ojos, boca y oídos para un robot espacial

Se trata de un transporte para la NASA el robot ha sido desarrollado por Airbus e IBM para la agencia espacial alemana, con la colaboración y supervisión del hospital universitario Ludwig-Maximilian (LMU) para los aspectos humanoides del sistema.

Su nombre es CIMON (siglas de Crew Interactive Mobile Companion), tiene unas dimensiones similares a un balón medicinal o de volleyball, como dicen en The Verge, con 32 centímetros de diámetro y un peso de 5 kilogramos, y su estructura está enteramente fabricada por impresión 3D, combinando metal y plástico para su construcción.

Dado que entre sus cometidos está el demostrar que puede existir cooperación entre seres humanos y máquinas inteligentes (es uno de los experimentos), tiene “cara” (una pantalla), “ojos” (dos cámaras, y una adicional para el reconocimiento facial), “orejas” (siete micrófonos) y “boca” (un altavoz), de modo que puede mostrar contenido a los astronautas y al mismo tiempo registrar material con las cámaras, que pueden usarse para realidad aumentada. Está dotado de sensores ultrasónicos para medir distancias y 14 ventiladores, porque se trata de un robot “flotante”, al estilo de aquel Int-Ball de la JAXA (aunque quizás no tan adorable).

La colaboración de IBM fue con la Watson AI, y se trata de que CIMON vaya aprendiendo con el entrenamiento que le proporcione algún colega humano, ya que no es capaz de aprender por sí solo. El robot recurrirá a AI para el procesamiento del texto, el habla y las imágenes, así como para encontrar información específica e interpretar las reacciones de los astronautas (humor y sentimientos).

Matthias Biniok, arquitecto jefe de IBM para Watson, explica que sus habilidades pueden mejorarse con ese entrenamiento y el contexto de cada acción. Además, añade Till Eisenberg, jefe de proyecto por parte de Airbus, que CIMOS aún no incorpora todas las capacidades que se esperan de un asistente inteligente espacial en el futuro, y que se centrarán en ver qué ocurre a medio plazo en cuanto a los efectos en un pequeño grupo para poder plantear las posibilidades a largo plazo, en misiones a la Luna o Marte.

Los experimentos previstos para CIMOS cuando esté ya flotando por la ISS incluyen un cubo de Rubik, cristales y un experimento médico en el que el robot hará las veces de cámara flotante, así que prometen ser cuanto menos curiosos. Y en cuanto al manejo de CIMOS, está pensado para que no requiera las manos de los astronautas, con control por voz, y se dirigirá al astronauta que le hable, pudiendo ejecutar expresiones faciales, moviéndose de manera autónoma.

Inteligencia Artificial en Televisores

La tecnología de Inteligencia Artificial real que LG ha integrado en su gama de televisores, controlada solo por voz en todos los modelos de 2018 con sistema operativo webOS 4.0.

El sistema de Inteligencia Artificial por voz integrado en los televisores de LG utiliza un lenguaje natural para comunicarse, de forma que no te tienes que aprender una retahíla de comandos exactos. Simplemente di qué quieres hacer, la tecnología AI de LG procesará tu orden y te ofrecerá la información que le has pedido. Supone una auténtica revolución que cambiará para siempre la forma en la que interactúas con el televisor y que ninguna otra marca se ha atrevido a implementar.

LG ha puesto todos estos menús al servicio de su Inteligencia Artificial de forma que solo tienes que pedir activar o desactivar una determinada función para que se lleve a cabo. Sin complicados menús y sin tener que tocar mil botones.

La diferencia entre un sistema de control por voz y un sistema de Inteligencia Artificial real es que, mientras que el primero solo se limita a obedecer los comandos de voz, la Inteligencia Artificial de los televisores LG aprende de tus hábitos de uso. El Deep learning, que es como se conoce a este tipo de aprendizaje de la Inteligencia Artificial permitirá a tu TV aprender los comandos que le pidas a menudo y aplicarlos según tus hábitos de uso.

A partir del último trimestre de 2018, los televisores equipados con sistema operativo webOS 4.0 de LG recibirán una actualización que ampliará considerablemente la utilidad de la Inteligencia Artificial integrada ya que les permitirán conectarse a otros dispositivos inteligentes e interactuar con ellos convirtiéndose en el centro de control de todo.

El timbre inteligente con IA

belle

Belle, un timbre capaz de reconocer, hablar y dar instrucciones a los visitantes. El timbre usa tecnología Wi-Fi para saludar a visitantes y avisar al residente. Reconoce diferentes tipos de visitantes y los maneja inteligentemente. Su alerta de movimiento avanzada con ajuste de rango, tiempo y sensibilidad le permite estar seguro con sus notificaciones precisas.

Su transmisión en vivo HD y la visión nocturna infrarroja le muestran las vistas en tiempo real frente a sus puertas con vídeos claros y fluidos, días y noches.

La función de alerta de movimiento lo mantiene informado rápidamente cuando algo se acerca a su puerta, todo será capturado bajo la completa vigilancia de Belle.

Aún sin internet puede aceptar llamadas de audio para que pueda responder fácilmente a sus visitantes.

La aplicación móvil que tiene, le permite hablar con sus visitantes, incluso si no está en casa. Si se combina con un candado compatible, Belle también puede desbloquear su puerta para el visitante a petición suya.

inteligencia Artificial como Asistente en Aeropuertos.

Image ref 69609375. Copyright Rex Shutterstock No reproduction without permission. Please see www.rexfeatures.com for more information.

Munich en Alemania, cuenta con un robot que puede interactuar con los pasajeros- fabricado en Francia (con tecnología IBM Watson IoT)  -.

El robot humanoide basado en inteligencia artificial mide apenas 1,20 metros y pesa solo 28 kilos. Habla inglés y desde mediados del mes de febrero está en el aeropuerto recibiendo a los pasajeros en el Terminal 2, respondiendo preguntas sobre tiendas, restaurantes y hasta el tráfico aéreo.

Está conectado a Internet a través de la red WLAN que se vincula a la nube para procesar la información hablada, esta información es la que interpreta y vincula a los datos del aeropuerto. El robot no responde a preguntas predefinidas ni responde ni con textos estándar.

“Es su capacidad de aprendizaje la que le permite optimizar cada vez más sus respuestas y además interactuar con adultos y niños”.

Avances de la automatización (industria 4.0)

robot

Este robot  responde de forma proactiva a las peticiones de sus compañeros y reacciona ante lo que están haciendo. Se trata de un gran avance con participación de Reino Unido, Italia y Alemania.

ARMAR-6 responde de forma útil a comandos de voz simples. Si le pide una llave inglesa, por ejemplo, le preguntará cuál antes de dársela. Los investigadores responsables del robot también están probando estrategias para que el robot sea capaz de analizar una escena y planear acciones complejas en tiempo real.

En otras palabras, el robot está aprendiendo a dar una llave inglesa antes de siquiera preguntar por ella. Pero anticiparse y reaccionar ante el comportamiento de un trabajador humano es particularmente difícil, así que será interesante ver si al ARMAR-6 se le da bien de verdad.

El robot se está probando en un gran despacho altamente automatizado operado por Ocado, una tienda de comestibles en línea con sede en el Reino Unido.

El robot es una muestra de lo rápido que la automatización está penetrando en nuevos sectores laborales, y cómo las mejoras en la detección y el aprendizaje automático podrían acelerar las cosas.

Los robots ya están asumiendo tareas cada vez más complejas dentro de fábricas y almacenes. De hecho, el Gobierno del Reino Unido está estudiando si los robots pueden contribuir a  lidiar con la escasez de mano de obra provocada por el Brexit. Según un informe de la Federación Internacional de Robótica, una organización creada para promover la industria, se espera que la cantidad de robots instalados en todo el mundo aumente a 3.053.000 para 2020. Los robots colaborativos, o cobots, representan una proporción pequeña pero creciente de estas instalaciones, los equipos  que combinan humanos y robots pueden ser más eficientes que los humanos o los robots que trabajan por su cuenta.

La imaginación en la IA

opti

Dos sistemas de inteligencia artificial pueden interactuar entre sí para crear imágenes y sonidos originales ultrarrealistas; algo que las máquinas nunca habían sido capaces de hacer.

Esta tecnología confiere a las máquinas una especie de sentido de imaginación, lo que puede ayudar a que sean menos dependientes de los humanos

Ambas redes están entrenadas con el mismo conjunto de datos. Una, conocida como la generativa, tiene la tarea de crear variaciones en las imágenes que ya ha visto, tal vez una imagen de un peatón con un brazo de más. La segunda, conocida como el discriminador, debe identificar si la imagen que está viendo pertenece al conjunto de entrenamiento original o, por el contrario, si es una imagen falsa producida por la red generativa.

Machine Learning

ia-perro

El Machine Learning (Aprendizaje Automatico)es una disciplina científica de la nteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros, implica que estos sistemas se mejoran de forma autónoma con el tiempo, sin intervención humana. Veamos un ejemplo de ello:

La investigadora de la Universidad de Washington en Seattle (EE. UU.) Kiana Ehsani y su equipo han recopilado un conjunto de datos único sobre cómo se comportan los perros y lo han utilizado para entrenar un sistema de IA, con el objetivo era que la máquina aprendiera a tomar decisiones a como lo hacen los perros.

  • Para empezar, el equipo construyó una base de datos sobre el comportamiento perruno. (equiparon a un único perro con una unidad de medición inercial en sus patas, cola y cuerpo para registrar el ángulo relativo y la posición absoluta del animal)
  • También colocaron una cámara GoPro en la cabeza del animal para grabar la escena visual, captada a una velocidad de cinco fotogramas por segundo.
  • Le pusieron un micrófono para grabar el sonido.

En total, el equipo reunió alrededor de 24.500 fotogramas de vídeo sincronizados con la posición del cuerpo y los datos de movimiento del animal. Utilizaron 21.000 fotogramas para entrenar a una inteligencia artificial y dedicaron el resto para validar y probar el sistema. Los resultados fueron tres cosas: cómo actua un perro, cómo planifica y cómo aprende un perro. De esta forma buscaban predecir los movimientos futuros del perro a partir de una secuencia de imágenes. Con la secuencia de acciones que realizaba el perro, la inteligencia artificial aprendió las acciones en base a esas secuencias de fotogramas, asì también se entrenó a la IA para que reconociera qué tipo de superficies son accesibles y pudiera identificarlas en nuevas imágenes.

 

 

La Inteligencia Artificial permite reciclar tecnología Apple

 

apple-robot-daisy

Con motivo del Día de La Tierra, Apple decidió presentar a Daisy, el nuevo robot con. capaz de desmontar hasta 200 iPhones viejos en una hora, para optimizar su proceso de reciclado.

Construido por el equipo de de investigación y desarrollo de Apple, ha sido creado tras años de intensa I+D.

Incorpora una tecnología revolucionaria basada en Liam (una versión del 2016 previa a Daisy), el nuevo robot tiene algunas piezas procedentes de Liam y es capaz de desarmar, clasificar y agrupar en segundos materiales valiosos que pueden reutilizarse como cobre, oro, plata y platino. Un proceso que podría tardar horas y hasta días si se realiza por un capital humano