El futuro compañero de trabajo se llamará cobot.

España se convierte en el centro de la automatización de los puestos de empleo.

El 14% del empleo de los países de la OCDE están en riesgo de automatización. La horquilla se mueve entre el 6% de Noruega y el 34% de Eslovaquia. Por su parte, España está en la parte alta de la tabla, con el 21,7%.

La automatización va a cambiar los puestos de trabajo, señalan los expertos. La transformación del empleo va hacia una mayor especialización, comenta Patrick Cyrus, responsable de comunicación de Global Robot Expo, a este periódico.

Un informe del Foro Económico Mundial apunta que, para 2025, más de la mitad de todas las tareas actuales en el lugar de trabajo serán realizadas por máquinas. Además, se espera que se creen 133 millones de nuevos puestos de trabajo para 2022, mientras que 75 millones que serán desplazados.

Según Loup Ventures, en 2025, los cobots representarán el 34% de las ventas de robots a escala internacional y supondrán un volumen de negocio de 13.000 millones de dólares. Las empresas lo ven como ciencia ficción.

La colaboración entre los robots y las personas aumenta un 85% la productividad en los procesos de fabricación en comparación con el trabajo por separado.

El auge de los cobots en el proceso de producción de empresas españolas e internacionales nos ha impulsado a crear este congreso en el marco de Global Robot Expo, uno de los escaparates más visibles en el mundo de la robótica y la innovación en la industria del país, destaca Vincent Chavy, Marketing Manager de Universal Robots en el sur de Europa y Oriente Medio.

En comparación con la robótica industrial tradicional, la instalación y programación de los robots colaborativos en las industrias es un proceso mucho más rápido que puede completarse en sólo unas horas en función de la complejidad del robot.

Los cobots permiten ir más allá y revalorizar el capital humano de las empresas, poniendo al operario en el centro del proceso productivo y trabajando codo a codo con los robots.

Consultar mas en: https://www.hoy.es/tecnologia/futuro-companero-trabajo-20190508001715-ntrc.html

La versión web de Word prepara un corrector hipervitaminado, gracias a la IA que nos asesorará sobre cómo mejorar nuestros documentos

Si eres usuario de la versión web de Microsoft Word, pronto podrás recurrir a la inteligencia artificial cuando hagas uso de su editor. Según ha anunciado la compañía, están preparando el lanzamiento de una nueva funcionalidad llamada ‘Ideas’, que ofrecerá todo tipo de ayudas a la hora de elaborar nuestros documentos.

Malavika Rewari, gerente de marketing de producto de Microsoft 365, hizo públicas estas nuevas funciones inteligentes durante la Microsoft Build, una conferencia anual para programadores que se está desarrollando en Seattle.

Además, estas mejoras serán de gran ayuda para aquellos que sufren a la hora de encontrar palabras adecuadas a la hora de redactar, esta nueva función promete facilitarnos la redacción de textos más concisos y fáciles de leer.

Otro de los usos de esta nueva función será el de proporcionarnos resúmenes automáticos que recojan las ideas clave de cada documento, evitándonos así (cuando no seamos nosotros los autores, claro) la obligación de leer docenas o cientos de páginas para hacernos a la idea de su contenido.

Desde Microsoft explican que han detectado que los usuarios acostumbran a ignorar las herramientas que permiten estructurar los documentos, prefiriendo poner letras en negrita e indicar un mayor tamaño de fuente en lugar de indicar la existencia de un encabezado. Por ello, ‘Ideas’ procurará comprender la estructura que buscamos darle al documento y actuará en consecuencia.

Por último, ‘Ideas’ incorporará lo que Microsoft denomina ‘reescrituras neuronales’, en las que hará uso del deep learning para ofrecer sugerencias sobre diferentes formas de escribir una frase, sugiriendo palabras o expresiones alternativas ajustadas al contexto. La idea es que deje de ser necesario cambiar de pestaña en el navegador para buscar por nuestra cuenta alternativas de escritura.

Todas estas nuevas funciones estarán disponibles para los miembros del programa Office Insiders desde el próximo mes de junio y el público en general podrá beneficiarse hasta en otoño de este año.

Consulte más en: https://www.xataka.com/inteligencia-artificial/version-online-word-ofrecera-nuevas-opciones-mejora-textos-gracias-al-uso-inteligencia-artificial

Crean un traductor que convierte las señales cerebrales en frases.


La investigación puede ayudar a que las personas con parálisis vuelvan a hablar.

Enfermedades como la esclerosis lateral amiotrófica (ELA) o un ictus provocan el comunicarse mediante voz sea tarea ardua o, incluso, muy complicada. La tecnología parece dar pasos para resolver estos impedimentos. Neurocientíficos de la Universidad de California (San Francisco, EEUU) han desarrollado un sistema capaz de registrar las señales del cerebro y convertirlas en voz a través de un sintetizador. Los ensayos, publicados en la revista Nature, muestran los resultados en cinco personas con epilepsia. «Personas que no pueden mover los brazos ni las piernas han aprendido a controlar brazos robóticos con el cerebro. Tenemos la esperanza de que personas con discapacidades del habla aprenderán a hablar de nuevo», declara en un comunicado Josh Chartier, coautor de la investigación.

A través de una serie de electrodos implantados en el cerebro, los científicos estadounidenses han podido vigilar las señales cerebrales y que activan un receptor que permite traducir estas ondas en lenguaje hablado. Para optimizar el sistema, los científicos estadounidenses han dividido el trabajo en dos fases. En primer lugar, los expertos pidieron a los voluntarios que reprodujeran en voz alta ciertas frases para trasladarlas al sintetizador.
En segundo lugar, al descodificar las señales del cerebro, la información se traslada al sintetizador que genera sonidos directamente a partir de las señales del cerebro sin pasar por el aparato de fonación.

A pesar de vigilar e interpretar las señales cerebrales, los expertos rechazan que el sistema pueda leer los pensamientos. «En cualquier caso la tecnología en la que hemos trabajado no puede hacer eso: nos hemos centrado sólo en la parte que controla movimiento vocal», apunta Edward Chang, profesor de neurocirugía y coautor de la investigación.

Para mas información consultar:

https://www.hoy.es/tecnologia/investigacion/crean-traductor-convierte-20190507173434-ntrc.html

Inteligencia artificial para evitar que nos inunde la basura

San Francisco instalará sensores que detectan cuándo las papeleras están a punto de rebosar y alertan a los servicios de limpieza

A medida de que las papeleras del centro de la ciudad en San Francisco se llenan rápidamente de basura, y los servicios de limpieza no se dan abasto . Para resolver este problema, que no solo es estético si no que además puede generar plagas y malos olores,  la empresa Nordsense tiene una solución al estilo Silicon Valley; sensores que detectan cuándo las papeleras están a punto de rebosar y alertan a los servicios de limpieza. Nordsense colocará en los próximos meses estos pequeños sensores en la parte superior de mil papeleras en varios barrios de San Francisco.

“Tuvimos varios meses de prueba para ver qué información recogíamos y para que la ciudad de San Francisco viera que nuestro sistema funciona,” explica, Manuel Maestrini, fundador de Nordsense. “Tuvimos tres meses para colocar cien sensores y la prueba funcionó bastante bien. De hecho, la ciudad se dio cuenta de que de esas cien papeleras, en realidad solo se desbordaban muy pocas diariamente.”

Maestrini asegura que saber dónde se genera más basura es crucial para hacer que las tareas de limpieza sean eficaces, rápidas y además, contaminen menos. “Si en lugar de ir con el camión haciendo las rondas diarias, ya supieran exactamente qué papeleras se llenan frecuentemente y a qué hora, harían la recogida de forma mucho más efectiva,” dice este ingeniero de software.

Gracias a la inteligencia artificial, todos los datos que recojan los sensores serán filtrados por algoritmos que generarán las rutas diarias, actualizándolas a medida que se envíen datos. “Es inmediato: en cuanto el sensor detecta que la papelera está a punto de llenarse del todo, envía la señal a la aplicación que analiza la información y genera una ruta nueva.”

Además, estos sensores no sólo detectan que la basura ha llegado al tope, sino que cada quince minutos escanea toda la superficie de la papelera y es capaz de saber si está llena realmente o si por ejemplo, parece desbordada porque hay una caja de pizza. “No queremos que los basureros lleguen para encontrarse que en realidad no hay casi basura, así que hemos logrado que los sensores reconozcan objetos,” señala Maestrini.

En resumen, esto es una gran alternativa para evitar que la basura se encuentre tirada en las calles donde se ubican las papeleras, es decir, esto podrá permitir tener más limpio uno o varios lugares donde se genere más basura dentro de una ciudad, y de esta manera mantenerla  limpia, más en los lugares turísticos que son donde más basura se genera, y la gente es más recurrente.

Consulte más en: https://elpais.com/elpais/2019/04/08/ciencia/1554710887_763760.html

La realidad aumentada complementará a los asistentes de voz

La plataforma de chatbots con mayor número de usuarios del mundo, Pandorabots, prevé un futuro en el que avatares virtuales en la realidad aumentada nos ayuden a hacer las compras más fáciles, agilicen trámites burocráticos e incluso nos eduquen. Pero antes de todo eso, aseguran desde Pandorabots, es imprescindible que se mejoren los sistemas de reconocimiento de voz.

En esta compañía radicada en Oakland, California, llevan trabajando desde 2008 para hacer la inteligencia artificial más humana. “Hay que tener en cuenta que cuando hablamos de reconocimiento de voz, en realidad estamos hablando de texto. El sistema puede entender perfectamente lo que le estás diciendo, pero el problema sigue siendo que la inteligencia artificial, al pasarla a texto, aún no es tan sofisticada”, dice Lauren Kunze fundadora y directora ejecutiva de Pandorabots.

En Pandorabots, actualmente tienen la mayor red de desarrolladores de chatbots del mundo, más de 250.000 entre profesionales y amateurs y más de seis mil millones de conversaciones acumuladas desde que se fundó la empresa en 2018. Ahora, Kunze asegura que Pandorabots ve más posibilidades de desarrollo en la realidad aumentada, complementada con asistentes de voz. “Es mucho más eficaz para transmitir el mensaje, ya hemos hecho pruebas y los avatares asistentes virtuales tienen muy buena acogida”, dice Kunze.

Así que entre las aplicaciones que ven desde Pandorabots se encuentran la sanidad y el comercio, con un asistente ayudando a los usuarios a encontrar lo que buscan más fácilmente en las tiendas, pero sobre todo ven la aplicación más útil en la educación. “Va a ser el interfaz del futuro, más incluso que los altavoces inteligentes como Alexa. Creemos que va a ser muy interesante en el terreno de la educación a través de chatbots, de hecho en China ya tenemos un ejemplo, un chatbot en realidad aumentada que enseña inglés a los niños. La participación es increíble y el número de usuarios es altísimo”, asegura la directora ejecutiva de Pandorabots.

Consulte más en: https://elpais.com/tecnologia/2019/04/23/actualidad/1556007495_520989.html

Predecir el cáncer de mama 5 años antes de que aparezca, posible gracias a la IA

A pesar de los notables avances que ha habido en los últimos años en materia de tecnología de diagnóstico, así como del aumento de campañas dirigidas a promover la autoexploración, muchas pacientes de cáncer de mama siguen recibiendo el diagnóstico en estadios avanzados de la enfermedad.

De ahí que, desde hace un tiempo, identificar a las pacientes en riesgo antes de que aparezca la enfermedad sea la meta a la que se dirigen muchas investigaciones vinculadas al cáncer de mama.

Por eso es tan importante el logro que acaban de cosechar los investigadores del Hospital General de Massachusetts y el CSAIL (el Laboratorio de Informática e Inteligencia Artificial del MIT): la creación de un modelo de deep learning capaz de predecir a partir de una mamografía si la paciente es propensa a desarrollar un cáncer de mama en el futuro, concretamente a 5 años vista.

Detección temprana más personalizada

Lo han hecho entrenando el modelo con datos procedentes de 60.000 pacientes tratadas en el MGH, e identificaron aquellas que desarrollaron cáncer en algún momento durante los 5 años posteriores a la realización de las pruebas, lo que ha permitido a la IA reconocer los sutiles patrones del tejido mamario que son precursores de su malignización, mostrando además una tasa de éxito en la detección del 31%, casi el doble que las técnicas precedentes.

“Desde la década de los 60, los radiólogos se han ido dando cuenta de que las mamografías muestran patrones únicos y ampliamente variables en los tejidos mamarios”, explica Constance Lehman, doctora del MGH y profesora de la Univ. de Harvard.

He ahí donde retomamos el tema de que el avance de la tecnología juega un papel importante ante la sociedad, gracias a su aplicación en el área de la ciencia y medicina, se podrán salvar a tiempo vidas de personas propensas ante esta enfermedad.

para ver más información visitar la página: https://www.xataka.com/inteligencia-artificial/predecir-cancer-mama-cinco-anos-antes-que-aparezca-posible-gracias-a-inteligencia-artificial

Google abre el primer laboratorio de inteligencia artificial de África

En la pequeña ciudad de Accra, en Ghana, la compañía estadounidense Google inauguró un laboratorio de investigación sobre la inteligencia artificial, el primero de este tipo en África, con el objetivo de responder a los problemas socioeconómicos, políticos y medioambientales del continente; formará a investigadores e ingenieros y colaborará con universidades y emprendedores.

¿Cómo utilizar la inteligencia artificial para paliar las penurias de los médicos o mejorar el diagnóstico del cáncer? ¿Cómo ayudar a los pequeños agricultores en sus cosechas o a los trabajadores en la detección de averías en las máquinas? ¿Cómo prevenir las catástrofes naturales? “África se enfrenta a muchos desafíos y aquí el uso de la inteligencia artificial puede ser más importante que en otros sitios”, explica Moustapha Cissa, director del nuevo centro Google.

Gracias a los algoritmos, al reconocimiento vocal o de escritura, muchos documentos podrían traducirse a las lenguas vernáculas africanas. Además, los pequeños agricultores podrían detectar problemas en la producción o evaluar los precios del mercado en la red.

Ante tales situaciones, expertos en aprendizaje automático (machine Learning, un campo de la inteligencia artificial que hace que las máquinas aprendan a partir de datos obtenidos de una serie de estadísticas) y editores de programas informáticos trabajarán en jornada a tiempo completo en este nuevo laboratorio, en colaboración con universidades o emprendimientos de Ghana, Nigeria, Kenia y Sudáfrica.

Nuevos mercados

Los gigantes tecnológicos conocidos como GAFA (acrónimo de Google, Apple, Facebook, Amazon) están muy interesados en el continente africano, un mercado inmenso. Donde actualmente cuenta con el 60% de los 1,200 millones de africanos tienen menos de 24 años y de aquí a 2050 la población se duplicará hasta alcanzar los 2,400 millones de personas. “Hay claramente una oportunidad para empresas como Facebook y Google de instalarse e imponer su marca en territorio africano”, explica Daniel Ives, de GBH Insights, una gabinete de asesoramiento con sede en Nueva York.

Ver más información en la siguiente página:https://expansion.mx/tecnologia/2019/04/13/google-abre-el-primer-laboratorio-de-inteligencia-artificial-de-africa

La IA aprende a cultivar albahaca, para hacer pesto aún más sabroso

Este proyecto del  Instituto de Tecnología de Massachusetts (MIT) es un ejemplo de la creciente tendencia que utiliza inteligencia artificial para evolucionar la agricultura en invernaderos. El enfoque consiste en controlar las variables climáticas para maximizar parámetros de las plantas como la resistencia, el sabor y el crecimiento.

Los investigadores responsables de esta albahaca mejorada por la IA usaron la tecnología para determinar las condiciones de crecimiento que maximizarían la concentración de los compuestos volátiles responsables del sabor de la albahaca. El estudio ha sido publicado recientemente en la revista PLoS ONE.  

La albahaca se cultivó en unidades hidropónicas dentro de unos contenedores de transporte modificados en Massachusetts (EE.UU.). La temperatura, la luz, la humedad y otros factores ambientales del interior de los contenedores se podían controlar automáticamente.

En una nota de prensa, el investigador jefe del MIT Media Lab, Caleb Harper, afirma: “Estamos muy interesados ​​en crear herramientas online que puedan tomar la experiencia de una planta, su fenotipo, el conjunto de estrés que encuentra y su genética, y digitalizarlo para entender mejor la interacción planta-ambiente“.
La idea de utilizar IA para optimizar el rendimiento y las propiedades de la planta está prosperando rápidamente en la agricultura.

Para más información visite la página:https://www.technologyreview.es/s/11077/la-ia-aprende-cultivar-albahaca-para-hacer-pesto-aun-mas-sabroso

Inteligencia Artificial, una nueva forma de hacer música

Quizás este avance tecnológico nunca llene un estadio como para un concierto de Rock, pero las computadoras ya son capaces de componer música. Como muestra de ello, ya se produjo un disco entero con la ayuda de la inteligencia artificial (IA), algo sin precedentes, Se trata de “I am IA”, de la estrella de YouTube, Taryn Southern.

‘Para mi primera canción, tuve muchas dificultades: escribí la letra, tuve la melodía, pero fue difícil componer la música’, explicó la artista. Así como también dijo que lleva dos años trabajando con Amper, programa de composición de música.

Amper programa fundado en 2014, en Nueva York, por un grupo de ingenieros y músicos. Amper es parte de una decena de startups que usan ya inteligencia artificial para romper la forma tradicional de hacer música. El fundador de la compañía y CEO, Drew Silverstein, dijo que “el objetivo no es reemplazar a los compositores humanos sino ayudarlos a alcanzar sus objetivos”. Y argumentó que el programa cuenta con toneladas de materiales desde música bailable a música para producir canciones personalizadas.

Utilizando una interfaz bastante simple, la aplicación permite al usuario escoger el género musical (ya sea rap, folclore, rock), un atmósfera (feliz, triste, energía) y la duración de la canción. El usuario entonces puede variar los tiempos y los instrumentos hasta obtener un resultado satisfactorio.

Huawei lanza app que permitirá detectar discapacidad visual en niños

Track AI

Huawei ha venido trabajando de la mano con organismos de investigación médica, como IIS Aragon y Dive Medical, para ayudar a proteger la visión de los niños. Parte de esta colaboración es el desarrollo de Track AI, una app diseñada para detectar y diagnosticar los signos tempranos de discapacidad visual en los pequeños, que está  impulsada por inteligencia artificial. Por esta razón la tecnología de teléfonos inteligentes y la inteligencia artificial (IA) de Huawei se utilizarán en hospitales oftalmológicos de todo el mundo en asociación con el instituto oftalmológico líder.

Para detectar esas deficiencias, se utiliza una herramienta llamada Dispositivos para un Examen Visual Integral (Dive, por su sigla en inglés), que se ejecuta en el Matebook E para monitorear y rastrear la mirada de cada ojo. Los datos recopilados se procesan en el smartphone Huawei P30 utilizando el algoritmo Huawei HiAI para identificar posibles indicadores de deficiencias visuales. Por lo que Dive puede recopilar con precisión datos sobre la posición de la mirada mediante un estímulo visual diseñado científicamente.

La app Track AI se basa en las capacidades de TensorFlow de Google, una plataforma de código abierto, y Huawei HiAi, para crear un sistema de Machine Learning en los dispositivos de la familia Huawei P30, utilizando su chip Kirin 980, un potente procesador de IA. Cabe mencionar también que esta app no requiere Wi-Fi y recibe datos en tiempo real para acelerar los diagnósticos y si existe deficiencia visual esta sea tratada de inmediato evitando que en un tiempo empeore. Además, las capacidades de los Huawei P30 y P30 Pro permiten utilizar la app Track AI en todo el mundo, ya que no requiere internet.

Ante lo nuevo que Huawei está lanzando, los primeros ensayos se traducirán muy pronto en una adopción generalizada, y para ello, los centros de investigación están recopilando datos a partir de pruebas realizadas en cinco países de tres continentes (China, México, Emiratos Árabes Unidos, España y Reino Unido).

Una vez que se hayan agrupado los datos masivos, se procederá a entrenar a las redes neuronales. A finales de este año, y con planes para implementarlo en 2020, se empezará a utilizar un dispositivo prototipo, que ayudará a los trabajadores de la sanidad a diagnosticar y tratar las enfermedades oculares de manera temprana.

Las contraseñas del futuro serán nuestros cuerpos.


Siete de cada diez españoles ven con buenos ojos el reconocimiento biométrico para apuntalar la seguridad.

La biometría se ha convertido en la baza perfecta de los expertos en seguridad para acabar con el fraude y los usuarios, cada vez más, la ven como la mejor aliada para proteger su información. Más de 400 millones de consumidores en todo el mundo realizan ya por encima de ocho mil millones de autenticaciones exitosas al año, mientras que casi ocho de cada diez españoles ya se sienten cómodos con la tecnología de biometría.

Un estudio de Nuance recela que los PIN y las famosas contraseñas pierden relevancia en favor de las técnicas de biometría. La irrupción del reconocimiento de iris o el facial y los lectores de huellas digitales en los smartphones de alta gama han elevado la confianza de los usuarios en estos sistemas.

Los usuarios que gestionan cuentas con diferentes claves, experimentan semanalmente un sentimiento de frustración por no acordarse de cómo han usado las mayúsculas o los caracteres especiales. Sin embargo, casi la mitad de los encuestados (un 48%) no se ha puesto en contacto nunca con atención al usuario para resolver estos incidentes.

El número de ciberataques para cometer fraude va en aumento cada año, este hecho ha provocado que cada vez más organizaciones implementan tecnologías de autenticación biométrica (reconocimiento de voz, facial, de huella dactilar o de comportamiento) para permitir que los clientes accedan a sus servicios de manera fácil, segura y sin fricciones. Uno de cada cuatro españoles ha sido víctima de un fraude en el último año.

Creemos que tecnología como la biométrica debe representar el futuro de la autenticación, quitando responsabilidad a PINs y contraseñas inseguros y tediosos, y poniendo énfasis en nuestras características únicas, afirma Brett Beranek, director general de Seguridad de Nuance Enterprise.

La inteligencia artificial no puede impartir Justicia.

Las grandes tecnológicas estadounidenses se posicionaban contra el uso de algoritmos de inteligencia artificial como método de toma de decisiones de carácter penal

La inteligencia artificial se usa para vigilancia activa, para prevenir delitos, para perseguir delincuentes, pero ¿por qué no para aplicar e impartir Justicia?


De momento, no. Partnership on AI, una asociación que reúne a Apple, Amazon, Facebook, IBM, Nvidia, Microsoft y Google, se han posicionado en contra de usar la inteligencia artificial para dictar sentencia.

El University College London trabaja desde hace años en un software de aprendizaje automático que fue capaz de presentar los mismos veredictos que los jueces en cientos de casos reales. «No vemos a estos sistemas de inteligencia artificial sustituyendo a jueces o abogados, propendamos que serán útiles para encontrar rápidamente patrones en casos que podrían llevar a ciertos resultados», apunta el Dr. Nikolaos Aletras, jefe de proyecto.

Partnership on AI se ha mostrado en contra del uso de estas herramientas para resolver casos judiciales, ya que se trata de un método potencialmente sesgado, opaco, y lastrado.Una de las barreras que apunta el consorcio de las grandes tecnológicas de Silicon Valley es el sesgo a la hora de aplicar el Derecho. «El método correcto que se empleará dependerá de lo que signifique que una herramienta sea «justa» en una aplicación en particular, por lo que esta no es solo una cuestión técnica, sino también una cuestión de ley, política y ética», apuntan. «Si bien no existe una solución única para abordar el sesgo, a continuación se presentan algunos de los posibles enfoques que podrían ser apropiados en el contexto de las predicciones de evaluación de riesgo de Estados Unidos», añade.

A pesar de estas advertencias de los desarrolladores y programadores de inteligencia artificial, estos sistemas están usando. Estados Unidos trabaja con el sistema COMPAS, los delincuentes, ya en la cárcel, se someten a un cuestionario que a continuación es incluido en el software COMPAS, según publica ProPublica.

Al pronosticar quién reincidiría, el algoritmo predijo correctamente la reincidencia de los acusados blancos y negros aproximadamente en la misma proporción (59% para los acusados blancos y 63% para los acusados negros).

La Partnership on AI es una organización sin ánimo de lucro establecida para estudiar y formular las mejores prácticas en tecnologías de la inteligencia artificial, para mejorar la comprensión del público y para servir como una plataforma abierta para el debate y la participación sobre la inteligencia artificial.

Asistente en España


El pasado 2017, el Consejo General del Poder Judicial (CGPJ) llegó a un acuerdo con la secretaría de Estado para la Sociedad de la Información y la Agenda Digital bajo el gobierno de Mariano Rajoy para dotar al poder judicial español de inteligencia artificial para facilitar el trabajo de los magistrados.

La tecnología no impartirá justicia, sino que permitirá a los profesionales filtrar documentos de forma más rápida y precisa.

Primer Instituto de Inteligencia Artificial centrada en el ser humano

La Universidad de Stanford está poniendo en marcha un nuevo instituto dedicado a estudiar, guiar y desarrollar tecnologías y aplicaciones de inteligencia artificial centradas en el ser humano. Se llama Instituto Stanford para la Inteligencia Artificial Centrada en el Humano (HAI) y tiene como misión promover la investigación, la educación, políticas y prácticas de inteligencia artificial (IA) para mejorar la condición humana.

El instituto universitario está comprometido a asociarse con la industria, los gobiernos y las organizaciones no gubernamentales que comparten el objetivo de un futuro mejor para la humanidad a través de AI. Y como parte de este compromiso, el instituto está trabajando estrechamente con empresas de todos los sectores, incluidos tecnología, servicios financieros, atención médica y manufactura, para crear una comunidad de defensores y socios al más alto nivel.

HAI es dirigido conjuntamente por John Etchemendy, profesor de filosofía y ex rector de la Universidad de Stanford, y Fei-Fei Li, profesora de ciencias de la computación y ex directora del Laboratorio de IA de Stanford. El HAI espera convertirse en un centro interdisciplinario y global para los estudiantes de inteligencia artificial, investigadores, desarrolladores, constructores y usuarios del mundo académico, el gobierno y la industria, así como los responsables políticos y los líderes de la sociedad civil que desean comprender el impacto y el potencial de AI, y contribuir a la construcción de un futuro mejor.

HAI se centrará en resolver los problemas que se encuentran en el límite de las disciplinas, incluida la política económica e internacional, los problemas ambientales, la física y el espacio, y las ciencias de la vida, entre otras.

GAFAS INTELIGENTES QUE AUTORREGULAN LA GRADUACIÓN.

Las gafas inteligentes cuentan con un sensor digital en la varilla que se adapta a la miopía del usuario.

El 93% de la población mayor de 40 años afirma tener problemas de visión, frente al 7% que asegura no tener problemas de salud visual.El porcentaje baja hasta el 72% cuando hablamos del conjunto de la población española. Las tres patologías más reportadas son miopía (29%), el astigmatismo (24,8%) y la hipermetropía (7,8%). A medida que avanza la edad, los problemas de visión aumentan, pero también es un problema de los jóvenes. La gente de entre 18 a los 34 años cuenta con problemas de miopía con una media de 2,94 dioptrías. La tecnología también llega al mundo de la visión y al campo de las gafas y lentes. La compañía nipona Mitsui Chemicals lanzó el pasado año de forma oficial sus TouchFocus y que se están expandiendo por los mercados mundiales con gran rapidez.

Bajo un diseño elegante y similar al de unas gafas convencionales, este gadget japonés cuenta con un truco en una de las varillas. A través de un sensor táctil, el dispositivo ajusta un mini engranaje y permite modificar de forma instantánea la perspectiva a través de un cristal líquido. Para volver a su estadio anterior, tan solo es necesario volver a pulsar el sensor táctil y la gafa inteligente se adapta a la posición previa

.

El dispositivo está alimentado por una batería ligera y pequeña ubicada en la parte trasera de la patilla. Mediante carga USB, tiene una autonomía de unas 10 horas aproximadamente y se carga por completo en 4 horas. Por el momento tiene un valor de 1.950 euros lo 250.000 yenes  y cuenta con 20 diseños diferentes.

La tecnología, herramienta clave para renovar un modelo educativo

Un especialista imparte una clase sobre principios de programación, diseño e impresión en 3D e inteligencia artificial

Uno de los principales retos a los que se enfrenta el sistema educativo es adaptar nuevas técnicas de enseñanza que, en muchos casos apenas han variado en décadas ante los cambios sociales y económicos del siglo XXl, algo para lo que Microsoft ha creado la ‘clase inmersiva’, que lleva la tecnología a las aulas.

Este espacio físico en las oficinas que la empresa líder mundial en software dispone en París al que los maestros que lo deseen pueden trasladar su lección por un día y aprender junto con sus alumnos sobre principios de programación, diseño e impresión en 3D e inteligencia artificial.

Las herramientas con más éxito que se acostumbra a tener entre los educadores que se acercan a la clase inmersiva de microsoft es “Minecraft: Education Edition”, una versión del popular videojuego de construcción mediante bloques con escenarios diseñados para enseñar aritmética, química, historia, geometría y todo tipo de disciplinas.

Así como también se cuentan con más de 500 escenarios prediseñados, los cuales incluyen la creación de un restaurante para aprender principios básicos de economía y gestión empresarial.

Otro de los talleres de clase inmersiva es la creación e impresión 3D, donde los trabajadores de Microsoft enseñan a alumnos y maestros a la vez a usar el programa Paint 3D (sucesor del Paint de windows) para modelar figuras tridimensionales que posteriormente pueden ser convertidas en un objeto físico.

Y así se podrían mencionar otras herramientas que ya se encuentran disponibles para ser aplicadas en la educación, todo esto con la finalidad de formar niños de éxito, con una visión futura, determinando su inclinación por materias de su agrado para cuando llegue el momento de elegir una carrera profesional ya sepan o tengan más en claro la profesión que quieren.  

Q, el primer asistente de voz asexual

Ruptura total de los prejuicios de género en la tecnología. Es el objetivo del equipo nórdico de VIRTUE y Copenhagen Pride con la creación de Q, el primer asistente de voz neutro (es decir, no suena ni como un hombre ni como una mujer), que ha sido presentado en South by Southwest (SXSW), uno de los mayores festivales del mundo sobre el impacto de la tecnología en la sociedad, celebrado en Austin, Texas, EEUU.

La investigadora sobre comportamiento humano e interacción de robots Julie Carpenter cree que no existe ninguna razón para que no exista una tercera opción. “Incorporar la perspectiva de género en la tecnología puede ayudar a la gente a adaptar técnicas y sentirse más cómodo”, asegura. Carpenter se refiere a todas las personas que aunque sus características físicas corresponden a hombre o mujer, ellos sienten que su identidad no tiene por qué ser una u otra, (género no binario o tercer género).

Uno de los creadores de Q, Emil Asmussen asegura que la gente está sorprendida de que aún no existiera. “Los no binarios dicen que abrir el teléfono y tener una tercera opción hace que se sientan incluidos”.

El desarrollo de una voz neutra ha sido posible gracias a las investigaciones de Anna Jørgensen, una lingüista de la Universidad de Copenhage, que ha utilizado su investigación académica para definir los parámetros de una voz con género no binario. Los investigadores comenzaron a trabajar en el proyecto en verano del año pasado. Grabaron cinco voces que no tenían los parámetros de voz femenina o masculina. Utilizaron un software específico de modulación y modificaron las voces a un rango neutral establecido mediante investigación.

Tras haber conseguido desarrollar una voz de género no binario, el próximo paso es construir la estructura de inteligencia artificial (IA) . Aunque los creadores son más ambiciosos y esperan que además de que Q se establezca en productos de asistencia de voz como smarthphones o tablets, también se pueda  oír en las estaciones de metro, cines o teatros. Por lo que mencionaron sus desarrolladores: “Q fue creado para ser útil para las cuatro grandes tecnológicas: Microsoft, Apple, Amazon y Google. No ha pasado nada todavía pero estamos en conversaciones con algunas de estas empresas ”, esto asegurado por Ryan Sherman, uno de los creadores de Q. “Y ya estamos hablando con  tres de ellas”, ha concluido Emil Asmussen, también miembro del equipo creativo.

PRESENTAN ROBOTS ASISTENTES PARA LOS JUEGOS OLÍMPICOS DE TOKIO 2020.

El comité organizador de los juegos Olímpicos de Tokio 2020 presentó dos modelos de robots asistentes, que ayudarán con la movilidad de los visitantes como también con sus pertenencias o cosas pesadas.

video

La organización de los juegos Olímpicos Tokio 2020 presentó dos robots que serán los empleados en este evento, con los que aspira a convertir la cita olímpica más innovadora en cuanto al uso de la Tecnología.

Ayudar a los millones de espectadores es otra de las tareas de estos robots, como tambien ayudar con la movilidad de las personas y el transporte de equipajes u objetos pesados.  

Este gran proyecto lleva por nombre Human Support Robot (Robot de ayuda a humanos), fue desarrollado por Toyota y el traje de fuerzas asistidas de Panasonic son los primeros resultados visibles del proyecto Robot Tokio 2020.

Además de estos dos modelos, la organización tiene previsto emplear robots para otras actividades como por ejemplo guiar a los visitantes en el transporte público de Tokio lo para ejercer de traductores, además sirva como demostración de liderazgo de Japón en el campo de la Robótica según el vicedirector de los juegos Olímpicos de Tokio 2020.

La India usa inteligencia artificial para combatir la ceguera diabética

El hospital usa un sistema de Google que depende de la IA para diagnosticar un problema de retina

Todos los días, llegan más de dos mil personas de todo India, y en ocasiones, de otras partes del mundo a las salas del hospital Oftalmológico Aravind en Madurai, India, de 43 años de antigüedad,  ubicado en el extremo sur del país. Un caso reciente como prueba del uso de la IA en este hospital es el de Vt Muthusamy Ramalingamm, quien vive en esta ciudad, entró a una habitación, se sentó y posó su barbilla sobre un pequeño dispositivo de escritorio que apuntaba una cámara hacia sus ojos.

Un operador tocó una pantalla en la parte trasera de un escáner de ojos y, en cuestión de segundos, apareció un diagnóstico en la computadora, mostrando señales de retinopatía diabética en ambos ojos, una condición que puede causar ceguera si no se atiende luego.

En la mayoría de los hospitales y las clínicas del mundo, este diagnóstico lo determinan médicos especializados, quienes examinan los ojos del paciente e identifican los síntomas de la retinopatía diabética: lesiones minúsculas, hemorragias y decoloración. Sin embargo, Aravind está intentando automatizar este proceso. En colaboración con un equipo de investigadores de inteligencia artificial (IA) de Google con sede en California, el hospital está poniendo a prueba un sistema que puede reconocer la condición por sí solo.

Google y su empresa hermana Verily se enfocaron en este tipo de ceguera debido a su prevalencia y a que es la clase de enfermedad que un sistema de inteligencia artificial puede detectar en una etapa temprana. Cabe mencionar que Google no le va a cobrar al hospital durante el periodo de prueba de la tecnología.

Los investigadores esperan que este sistema de IA les ayude a los doctores a evaluar a más pacientes en un país donde la retinopatía diabética es cada vez más frecuente.

El proyecto es parte de una iniciativa generalizada para desarrollar e implementar sistemas que puedan detectar automáticamente signos de enfermedades o padecimientos con escaneos médicos. Varios hospitales en Estados Unidos, el Reino Unido y Singapur también han realizado ensayos clínicos con sistemas que detectan signos de ceguera diabética. Investigadores de todo el mundo están explorando tecnologías que pueden detectar cáncer, derrames cerebrales, cardiopatías y otras condiciones por medio de rayos X, resonancias magnéticas y tomografías computarizadas.

El sistema funciona en conjunto con oftalmólogos capacitados, según un estudio publicado en The Journal of the American Medical Association. No obstante, está muy lejos de poder reemplazar por completo a un doctor.

Innovaciones que transformaran la industria alimentaria en cinco años

Satisfacer las demandas de la compleja cadena alimentaria presionada por un futuro superpoblado, con una población estimada en ocho mil millones para 2024, el cambio climático y un suministro de agua limitado requerirá nuevas tecnologías y avances científicos sobre la seguridad e inocuidad de los alimentos. Con esto en mente, investigadores de IBM están trabajando en algunas soluciones para ayudar en cada paso de la cadena alimentaria: desde ayudar a los agricultores a maximizar los rendimientos de los cultivos y frenar enfermedades por alimentos, hasta formas de reutilizar el plástico.

Arvind Krishna, vicepresidente senior de IBM Cloud & Cognitive Software, dio a conocer cinco soluciones que forman parte de las predicciones de IBM sobre cómo la tecnología ayudará a en innovar y reforzar la cadena de suministro de alimentos dentro de los siguientes cinco años:

  1. Los dobles digitales en la agricultura ayudarán a alimentar a una población creciente utilizando menos recursos. Para ayudar a alimentar a una población que aumentará un 45% utilizando menos y más eficientemente los recursos, los investigadores de IBM están creando un modelo virtual del campo con dobles digitales o digital twins. De acuerdo con la empresa, utilizando la inteligencia artificial, podremos usar esos datos dentro de los próximos cinco años para pronosticar con precisión los rendimientos de los cultivos.
  2. Blockchain evitará que se desperdicie más comida. Dentro de cinco años, IBM predice que se eliminarán muchas de las costosas incógnitas en la cadena de suministro de alimentos gracias a blockchain. La cadena de bloques permitirá rastrear la comida desde el cultivo hasta el supermercado, y utilizará esa información para predecir los productos que los consumidores querrán y en qué momento exacto los querrán.
  3. Mapear el microbioma servirá para protegernos de las bacterias malas. Los inspectores de seguridad alimentaria de todo el mundo podrán usar millones de microbios para proteger lo que comemos. Los investigadores de IBM están combinando big data y microbiología, para recopilar una enorme base de datos de genomas.
  4. Los sensores de inteligencia artificial detectarán los patógenos transmitidos por los alimentos en el hogar. Los agricultores, procesadores de alimentos y tiendas de comestibles del mundo, junto con miles de millones de cocineros en el hogar, podrán detectar contaminantes peligrosos sin esfuerzo en sus alimentos. Todo lo que necesitan es un teléfono celular o una mesa con sensores de inteligencia artificial.
  5. Un nuevo proceso de reciclaje radical dará nueva vida al plástico viejo. La eliminación de basura y la creación de nuevos plásticos se transformarán por completo. Todo, desde cartones de leche hasta recipientes, bolsas de alimentos y empaques plásticos (PET) ya existentes, podrán ser reutilizados y convertidos en algo útil gracias a innovaciones como VolCat, un proceso químico catalítico que digiere ciertos plásticos (llamados poliésteres) en una sustancia que puede ser devuelta directamente a las máquinas de fabricación de plástico.

El futuro de la Inteligencia Artificial

La IA mejorará la productividad

La Organización Internacional del Trabajo (OIT) señaló que no cabe dudas de que la inteligencia artificial desempeña un papel importante en el futuro del mundo laboral; muestra de ello son los vehículos sin conductor, la negociación algorítmicas del mercado de valores y los diagnósticos médicos asistidos por computadora.

Mencionando ante ello que se teme que un momento dado ello venga a sustituir en grandes rasgos las actividades laborales de los seres humanos, donde a causa de ello pocos pueden ser afortunados contando con un trabajo aun, mientras otros son dejados atrás.

Por otro lado comentó que de acuerdo a investigaciones de especialistas, las tecnologías digitales basadas en la IA pueden permitir que segmentos más amplios del mercado laboral mejoren su productividad y tengan acceso a empleos mejor remunerados, lo cual, a su vez, puede contribuir a promover el crecimiento inclusivo.

Agregó la OIT, vale la pena recordar que históricamente la productividad y los niveles de vida han aumentado gracias a la especialización y a que las máquinas realizan las tareas más tediosas, arduas y rutinarias. Y que la gran reducción en costes de capital propiciada por las aplicaciones de inteligencia artificial, junto al hecho de que la dirección del cambio tecnológico es, al menos en parte, orientada por la oferta relativa de trabajadores poco cualificados en comparación con los muy calificados, significa que los países en desarrollo podrían beneficiarse de este progreso.

Por lo que mencionó que si las oportunidades han de superar los riesgos, las políticas deben ser ajustadas, a nivel nacional e internacional, ya que con la rápida evolución de las tecnologías, es necesario que la educación y la formación vayan mucho más allá de los años escolares, de manera que los trabajadores puedan capacitarse o reciclarse profesionalmente cuando sea necesario a lo largo de sus carreras.

La OIT destacó que el aprendizaje permanente debe convertirse en una realidad para que el mundo del trabajo pueda beneficiarse de estas nuevas tecnologías, ahora y en el futuro. Y consideró que el aumento observado en la concentración del mercado entre las empresas digitales es motivo de preocupación y deben tomarse medidas decisivas, tales como la formulación de políticas fiscales que establezcan condiciones de igualdad entre las empresas, impulsar la cooperación internacional y garantizar el diálogo social, a fin de permitir que las nuevas tecnologías y sus beneficios sean compartidos con mayor eficacia.

Robots que trabajan con humanos para Amazon, un anticipo del futuro.

El ingeniero Tye Brady, quien ha trabajo en el desarrollo de sistemas robóticos para astronautas, está convencido de que el  despliegue de robots colaborativos es la clave  de la productividad, el crecimiento y los empleos del futuro.

Un chaleco con correas electrónicas, bolsillos con sensores y walkie talkies en la cintura, una chica con pantalones vaqueros y zapatillas deportivas aprieta un botón y entra en un área donde se desplazan cientos de robots naranja transportadores: ellos mueven, según un circuito coreografiado por computadora y reajustado constantemente, grandes armarios amarillos que contienen miles de artículos comprados por Amazon, líder de ventas en línea.

Es el nuevo centro de procesamiento de pedidos que Amazon abrió en septiembre en Staten Island, Nueva York.

Sobre una superficie de 80.000 m², con el sonido de kilómetros de cintas rodantes, el gigante de Seattle -una referencia en el terreno en pleno auge de los robots capaces de colaborar con humanos ha desplegado su robótica más avanzada.

Amazon cuenta con más de 25 centros autorizados que le han permitido reducir a menos de una hora que tomaban más de un dia y ahorrar espacio de almacenamiento.

Para algunos, estos centros ilustran perfectamente el riesgo de que pronto los humanos pierdan su trabajo desplazados por máquinas inteligentes.

EL AVANCE DE LA TECNOLOGÍA EN LA MEDICINA

“Cómo será el ir al médico en el futuro”

El futuro de la medicina ya se beneficia en la actualidad del poder masivo de los datos y su interpretación para ofrecer un elevado grado de personalización a los usuarios, los gigantescos avances en el terreno de la IA para predecir enfermedades con antelación, monitorizar a los pacientes o descubrir nuevos fármacos, o de la capacidad casi infinita de la impresión 3D para abaratar costes y encontrar nuevas soluciones médicas desde biotintas para imprimir córneas humanas a medicamentos, implantes de tráquea, órganos, reconstrucción de nervios dañados o fabricación de tejidos.

La relación médico-paciente tendrá un carácter más cooperativo, simultáneo y virtual gracias a toda clase de dispositivos que permitirán hacer un seguimiento en tiempo real del estado del paciente, contar con un historial médico online avanzado e incluso, administrar la medicación a través de dispositivos dentro del cuerpo humano y monitorizar enfermedades gracias a innovadores gadgets como píldoras inteligentes inalámbricas o biosensores portátiles, desde lentes de contacto que rastrean los niveles de glucosa hasta zapatos que miden el peso, el equilibrio y la temperatura. Así, una de las labores de la innovación tecnológica será alertar a los médicos si algo está mal y proporcionar un diario de salud digital.

Las aplicaciones médicas pondrán más control en las manos de los pacientes, incrementando drásticamente su seguridad y otorgándoles más conocimiento en un mismo lugar y de forma simplificada e interactiva desde el smartphone, en lugar de diversos documentos y recetas. Las apps se convertirán en un centro de todos los datos que los pacientes precisan para su recuperación, desde alertas para tomar los medicamentos, controlar efectos secundarios, o remitir información relevante a los especialistas.

Las aplicaciones democratizarán el acceso básico a la atención médica, programaran las citas como en la actualidad ya lo hacen, guiarán a los pacientes para los tratamientos y brindarán un seguimiento útil al médico, además de realizar exámenes y diagnósticos virtuales, videollamadas para consultar dudas mejorando los problemas de costes, desplazamientos y rapidez de la asistencia a domicilio, algo especialmente significativo dentro de las economías en desarrollo, áreas rurales y alejadas o zonas devastadas por desastres naturales o conflictos armados. Las citas virtuales conllevarán un importante ahorro económico, mejorarán la eficacia gracias a la combinación del IoT con el análisis de datos avanzados y aliviarán carga de trabajo y sobresaturación de la atención primaria.

La atención médica, los profesionales contarán cada vez más con el apoyo de la Inteligencia Artificial, el machine learning o el deep learning, que sirven, entre otras cosas, para acelerar la toma clínica de decisiones, conectar datos valiosos y ser herramientas de apoyo para el diagnóstico y evaluación médicos.

En el futuro, irás menos y mejor a la consulta del médico: las aplicaciones de tu smartphone podrán avisar a los profesionales de cualquier alteración en tu organismo, sensores inteligentes podrían evitar que tengas que desplazarte de casa para ser monitorizado y tu propio médico podría administrarte la medicación a distancia con ayuda tecnológica, realizar una consulta virtual al otro lado de la pantalla o controlar tu estado de salud mediante tecnología wearable, pues los biosensores desempeñarán un papel clave para detectar alteraciones y desviaciones en el organismo, algo fundamental para vigilar de cerca a pacientes con enfermedades crónicas peligrosas.

Cloud Query permite que firewalls ATP detecten malware antes de que se propague.

Zyxel ha anunciado la nueva funcionalidad Cloud Query para sus firewalls ATP, un servicio de escaneado de malware basado en la nube que ofrece un nivel sin precedentes de inteligencia sobre amenazas desde una base de datos de la nube en constante expansión para contrarrestar el malware fuera de control.

Detección a tiempo de malware utilizando una base de datos en la nube
El servicio Cloud Query de Zyxel está basado en una base de datos en la nube que se enriquece continuamente de múltiples fuentes y que permite cubrir miles de millones de muestras de malware. Además de las constantes actualizaciones de fuentes fiables de terceros, la base de datos de Cloud Query se enriquece con un flujo constante de actualizaciones para amenazas identificadas por cualquier otro firewall ATP de Zyxel de todo el mundo. Un algoritmo especializado basado en Inteligencia Artificial clasifica y calcula el nivel de gravedad de cada amenaza, ayudando a las empresas a identificar las más activas y a tomar las medidas de contraataque adecuadas.

El servicio Cloud Query de Zyxel está basado en una base de datos en la nube que se enriquece continuamente de múltiples fuentes

“La eficacia del escaneado de malware solía estar seriamente limitada por la capacidad del hardware. Por ejemplo, el número de amenazas que pueden almacenarse en una base de datos de firewall suele ser bastante limitado”, comenta Gonzalo Echeverría, Country Manager para Iberia en Zyxel. “El uso de una base de datos en la nube permite una visión mucho más amplia y profunda de todo el panorama de las amenazas en la red, y también reduce el tiempo de respuesta a segundos sin comprometer el rendimiento del firewall ”

Cloud Query puede configurarse para comprobar archivos entrantes de tipos específicos, como los que más comúnmente contienen malware peligroso, por ejemplo PDFs y archivos comprimidos. En estos casos, el archivo se remite a la nube y se coteja con la inteligencia de amenazas en la nube para garantizar que no contiene características de algún malware identificado.

Desarrollan Software que escribiría noticias automáticamente.

El centro de investigación OpenAI decidió no lanzarlo por el momento, pues afirma que hay muchas formas de utilizarlo con fines perversos

Un grupo de investigadores reveló esta semana que desarrolló un generador de texto automático utilizando inteligencia artificial con muy buenos resultados, pero que decidió no darlo a conocer por el momento por el peligro de que sea utilizado con fines maliciosos.

El software desarrollado por OpenAI podría ser usado para escribir noticias, reseñas de productos y otro tipo de texto que podrían ser más realistas que cualquier otro producido antes por una computadora.  

OpenAI, un centro de investigación que es financiado por Tesla, Amazon y Microsoft, dijo que el nuevo software “logra un rendimiento de avanzada” en varios tipos de textos, como resúmenes o traducciones.

Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos la generación de artículos de “fake news” (noticias falsas), hacerse pasar por otros en internet o para producir contenido falso en las redes sociales.

Además indicaron que su modelo, llamado GPT-2, “supera otros modelos de lenguaje” entrenados en tareas como entradas en Wikipedia, noticias o libros sin necesidad de un entrenamiento específico.

Crean silla de ruedas con IA que se controla con el rostro

Dispositivo diseñado por la compañía Hoobox Robotics e Intel

La empresa brasileña Hoobox Robotics, en colaboración con el gigante tecnológico Intel, lograron sorprender al presentar un kit adaptador que permite controlar casi cualquier silla de ruedas eléctrica mediante las expresiones faciales del usuario.

Este dispositivo llamado Wheelie 7 forma parte del equipamiento de una silla de ruedas con inteligencia artificial que es capaz de detectar los gestos y procesar los datos en tiempo real, para dirigir a la silla y darle el movimiento que se requiere.

El sistema cuenta con un gran repertorio de gesticulaciones, por lo que el Wheelie 7 identifica al usuario cuando sonríe, levanta las cejas o realiza cualquier otro gesto, todo esto es posible gracias a la implementación de inteligencia artificial en colaboración con Intel, para el desarrollo de este proyecto.

Además, las personas que usan este dispositivo pueden personalizar y sincronizar las expresiones con el movimiento que la silla debe hacer, pues hasta el momento se tiene registrado que 60 personas con dificultades de movilidad han probado esta tecnología y los resultados han sido exitosos.

Ante ello, el cofundador y CEO de Hoobox robotics, Paulo Pinheiro, señaló que Wheelie 7 es el primer producto que usa las expresiones faciales de los pacientes par dar movimientos a una silla de ruedas.

CES 2019: Se presentó un horno con realidad aumentada que enseña a cocinar

Como era de esperarse en CES 2019, la feria de tecnología más grande del mundo, Whrilpool mostró una nueva creación llamada ‘Connected Hub Wall Oven’ es un horno conectado con una particularidad: tiene realidad aumentada (RA). Posee una pantalla transparente LCD de 27 pulgadas, que cubre toda la puerta del horno. Conectado a una aplicación y software de inteligencia artificial (IA), que enseña cómo cocinar y preparar los alimentos. Permite, por ejemplo, programar el calendario de una familia y estipular un horario para esa comida.

Otra de las cosas que el horno mostrará será qué ingredientes se necesitan para la cena  que se desee hacer y le enseñará al usuario la forma de como prepararlo.

Posteriormente, una vez que los alimentos están adentro, hay cámaras de alta definición que, a través de un sistema de inteligencia artificial, reconoce qué tipo de alimento se introdujo. Y en función de eso, recomienda el lugar preciso del horno donde ubicarlo para mejorar la cocción. Por lo que cabe mencionar que los tiempos de cocción y la temperatura del horno son automáticamente configurados por la IA que el horno tiene.

Una de las ventajas más destacadas de la tecnología de RA en el horno, es que se puede ver la comida, y mientras se está preparando es posible hacer un zoom virtual sobre el plato, sin necesidad de abrir la puerta del horno.

La pantalla es táctil (aunque esté prendido no toma el calor) y corre con la app Yummly. Y también es posible que el display luzca transparente, como en un horno común, cuando no se ejecuta la RA.

Con respecto al costo y fechas de lanzamiento este es solo un concepto que la empresa está presentando en la CES 2019, por lo que se desconoce información al respecto. Sin embargo, WLabs asegura que probablemente tomará un tiempo prudente, ya que se deben tomar en cuenta los comentarios obtenidos por los asistentes a la feria u otros para llegar a la versión final, lista para el comprador.

Google Visión

El reconocimiento de imágenes a tu alcance

Hoy en día, la mayoría de las empresas tecnológicas están apostando por la inteligencia artificial como elemento clave de las mismas, ya sea como complemento a sus productos o como base para generar nuevos servicios en un futuro nada lejano.

Actualmente se ha hablado de diferentes herramientas o aplicaciones de IA en Google, como el traductor DeepL, su nuevo sistema operativo Android 9 o su famoso altavoz Google Home.

Sin embargo, hoy nos vamos a centrar en una nueva herramienta que es la clave para cualquier desarrollador que quiera experimentar con la inteligencia artificial de Google Visión, el cual es una API que permite a los desarrolladores comprender el contenido de una imagen mediante el uso de potentes modelos de aprendizaje automático (machine learning).

Esta API clasifica las imágenes rápidamente en miles de categorías (por ejemplo, “coche”), detecta objetos y caras determinadas dentro de dichas imágenes y es capaz de leer las palabras impresas que contengan. De este modo, es posible crear metadatos en tu catálogo de imágenes, moderar el contenido ofensivo u optimizar nuevas campañas de marketing mediante el análisis de opinión en imágenes.

Funciones de Google Visión

Gracias a Google Vision es posible extraer información tan valiosa de las imágenes como esta:

Detección de etiquetas: detecta amplios conjuntos de categorías en una imagen, desde medios de transporte hasta animales.

Detección web: busca imágenes similares en Internet.

Reconocimiento óptico de caracteres (OCR): detecta y extrae texto de una imagen. Esta función es compatible con un gran número de idiomas y con la identificación automática de idiomas.

Reconocimiento de escritura a manoBETA.

Detección de logotipos.

Localizador de objetosBETA: no solo identifica un objeto en una imagen, sino que podrás identificar en qué parte de la imagen se encuentra dicho objeto y cuántos objetos de ese tipo hay en la imagen.

Detección de puntos de referencia: detecta estructuras artificiales y naturales muy famosas dentro de una imagen.

Detección de caras: detecta varias caras en una imagen, además de sus atributos faciales clave, como el estado emocional o las prendas que lleva en la cabeza. No admite el reconocimiento facial.

Moderación de contenido: detecta contenido explícito, como el dirigido a adultos o el de carácter violento.

Búsqueda de productosBETA: reconoce los productos de un determinado catálogo en fotos web y móviles.

Atributos de imagen: detecta los atributos generales de la imagen, como el color dominante, y ofrece sugerencias de recorte pertinentes.

Precio de Google Visión

Los precios de la API Google Vision van en función del número de imágenes a procesar.Hasta 1000 unidades al mes, se puede disfrutar de la herramienta de manera gratuita, incluyendo todas las funcionalidades. A partir de ahí, cada servicio tiene una tarifa diferente, que se va aumentando en función del rango de número de imágenes: entre 1000 y 5 millones y entre 5 millones y 20 millones.

Chatbot AIRe, el asistente inteligente que te ayuda a reciclar

La contaminación del aire provocada por los combustibles fósiles y los desperdicios que generamos que acaban en los mares, están haciendo de muchas de nuestras ciudades unos lugares poco recomendados para la salud.

Y como ya sabemos, la IA es una herramienta con múltiples posibilidades, lo cual ha aprovechado la organización Ecoembes para crear un chatbot ecologista: AIRe.

¿Qué es el chatbot AIRe?

En primer lugar, para quien no la conozca, Ecoembes es la organización que cuida del medio ambiente a través del reciclaje y el ecodiseño de los envases en España. Se encargan de que los envases de plástico, latas y briks (contenedor amarillo) y los envases de cartón y papel (contenedor azul) puedan tener una segunda vida.

A pesar de que el reciclaje es una práctica ampliamente extendida, en ocasiones puede surgir la duda acerca de en qué contenedor hay que depositar determinados envases, ya sea por su composición o por su apariencia. Ante esta problemática, Ecoembes ha hallado la solución en la inteligencia artificial: el Asistente Inteligente de Reciclaje AIRe.

Este chatbot ha sido desarrollado por el centro de innovación de economía circular The Circular Lab y hace uso de la IA para responder, a través de imagen, voz y texto, a las dudas de los ciudadanos sobre el reciclaje.

¿Cómo funciona este asistente virtual del reciclaje?

AIRe es capaz de reconocer la voz y texto del usuario, pero la verdadera característica diferencial es que también reconoce la imagen, de manera que los ciudadanos pueden enviar una foto del residuo que no sepan cómo reciclar y el asistente les dará una respuesta inmediata.

Aun así, este chatbot estará dirigido por humanos que serán los que respondan cuando AIRe no sea capaz de ofrecer soluciones a las dudas que se le planteen. Como consecuencia del uso del autoaprendizaje, el asistente irá mejorando sus respuestas y será más autónomo.

Esta IA se basa en el sistema de “machine learning” o aprendizaje automático y cuenta con reconocimiento de lenguaje natural (Google DialogFlow), reconocimiento de voz (Google Speech to Text) y reconocimiento visual (Google Vision y Amazon Rekognition).

El chatbot AIRe responde a todas tus cuestiones en castellano, catalán, gallego o euskera las 24 horas del día, y se encuentra disponible de forma gratuita en Google Play, App Store, Facebook Messenger y en la web de Ecoembes.


Google y Edebé se alían para mejorar la educación con la inteligencia artificial y Big Data.

Google y el grupo de Edebé han llegado a un acuerdo de colaboración para la producción y distribución de productos educativos digitales en los colegios destinados al aprendizaje adaptativo a través del uso de la inteligencia artificial y el análisis de datos de Big Datfotonoticia_20190211174635_640a.

El aprovechamiento de la inteligencia artificial en las academias ofrecerá al estudiante un aprendizaje personalizado, adaptado a su necesidades, con los contenidos y materias requeridas en su momento.

El director de Google for Education para el sur de Europa, Marc Sanz ha recalcado que con este acuerdo se requiere acompañar a directivos y docentes en el proceso de transformación y evolución de la educación, siendo la tecnología un aliado clave para conseguirlo y apoyar a sus proyectos.pawel-czerwinski-710838-unsplashEl director general de Edebé, Antonio Garrido, ha confirmado que la colaboración  permite abogar por la transformación digital de las academias y dar más tiempo a los docentes para poder personalizar la enseñanza.

El resultado  de la alianza entre Google y Edebé, que requiere impulsar la transformación digital en curso 2019-2020 estarán disponibles los primeros productos para su implementación.

Inteligencia Artificial que crea campaña de forma inteligente pensada en Pymes

 

ADEXT-inteligencia-artificial

Este Software estará promoviendo un producto o servicio las 24/7 en las principales plataformas de internet para atraer más clientes potenciales hacia una página web e incrementar las ventas.

La creación de campaña de anuncios basada en Big Data: Una vez que se haya adquirido el plan más conveniente para el negocio, el robot va guiando al usuario para que proporcione la información necesaria para crear los anuncios: nombre de la empresa, descripción del producto o servicio que ofrece al mercado, palabras clave, imagen de los anuncios, mercado objetivo, locación, objetivos de la campaña, etc. Con esta información, crea la campaña de anuncios y enseña una vista previa de los mismos para que el usuario visualice cómo se verán en Google, Facebook e Instagram

En este proceso inicial de creación de la campaña, ADEXT analiza una gran base de datos de campañas alrededor del mundo (Big Data) para poder determinar y predecir las tendencias y los patrones de éxito que funcionarán mejor para cada tipo de negocio.

  • Optimización de anuncios a través de machine learning: Cuando se lance una campaña de anuncios en las principales plataformas de internet, el robot la optimizará a través de tecnología machine learning. Los algoritmos avanzados del robot van analizando los resultados de la campaña de anuncios para aprender y detectar, conforme pasa el tiempo, qué es lo que está funcionando mejor para el negocio y con estos hallazgos optimiza constantemente la campaña para brindar mejores resultados.
  • Reporte de resultados diario: Se puede monitorear los principales resultados de una campaña desde el dashboard de la plataforma. Los indicadores que ADEXT reporta son: impresiones, clics, visitas, CTR, engagement en redes sociales, información demográfica de los visitantes de la página, dispositivos de acceso y, finalmente, conversiones (registros de clientes potenciales a través de un formulario de contacto; o bien, ventas, en el caso particular de un e-commerce).

ADEXT fue creada pensando en  mercado PYMES. Al brindarles la posibilidad de tener acceso a publicidad avanzada, podrán atraer clientes potenciales que a su vez se traducirán en más ganancias para la empresa.

Habrá chatbots hasta en la sopa, en 2022

Aunque quizá no lo sepa, los chatbot atienden muchas de las cuestiones que en el día a día planteamos a las empresas respecto de sus servicios. Y lo que dicen los expertos es que los tendremos, en unos años, hasta en la sopa.

La semana pasada el Madrid Mutua Máster de Tenis anunció que ponía a disposición de los espectadores que asistían al Torneo un chatbot dotado con inteligencia artificial (IA) que ofrecía información sobre el desarrollo del evento, los jugadores y resultados, así como detalles sobre servicios, accesos y aparcamientos. El MatchBot fue posible gracias a la tecnología de Oracle y sus partners Crambo y BPM SOA Solutions (BSS).

Pero hay muchos más en el mercado, como el que tienen la CNN, The Wall Street Journal y Quartz para ofrecer titulares y noticias a sus clientes de forma interactiva, y permitirles solicitar más profundidad en las informaciones. O como el que tiene el Bank of América, y en el que trabajan actualmente los ingenieros de Facebook para crear una inteligencia artificial comprensiva que ofrezca al cliente mejores servicios en función de los patrones de uso de los servicios bancarios. O como el que utiliza la compañía de Seguros Génesis, que está usando la tecnología IBM de Watson para gestionar las necesidades de sus clientes.
chatbot_0

 

Para mas información visite: https://www.muyinteresante.es/tecnologia/inteligencia-artificial/articulo/habra-chatbots-hasta-en-la-sopa-en-2022-111526045492

Usan reconocimiento facial para localizar niños extraviados.

digeorge-1

De acuerdo con los datos del Ministerio de Desarrollo de la Mujer y el Niño en la India, entre 2012 y 2017 desaparecieron más de 240.000 niños, esto tan sólo de los casos reportados, ya que otras instituciones estiman que la cifra ya supera los 500.000 niños extraviados cada año.

Ante esta problemática, el gobierno de la india se ha visto superado, ya que algunos de estos niños terminan alojados en instituciones de cuidado infantil. Al no existir un departamento dedicado a comparar las fotografías de los niños extraviados con las de aquellos que llegan a las casas de cuidado, la situación se complica y hace que cada vez más niños no regresen con sus padres. Por fortuna, la tecnología  ayuda a través de los sistemas de reconocimiento facial (FRS).

FRS todo un éxito

Con el objetivo de tratar de resolver el asunto de los niños extraviados, y el preocupante aumento de las cifras, el Ministerio creó una base de datos en línea a nivel nacional conocida como TrackChild. Puedes consultar las fotos de los niños desparecidos y encontrados, así como la información policial que puede ser usada por otras agencias e incluso los ciudadanos.

TrackChild también sirve para levantar reportes de niños extraviados, y a pesar de ser una buena herramienta digital al concentrar en un solo sitio todo este tipo de información, la acumulación de fotografías se ha convertido en un problema para las instituciones, quienes no han podido disminuir la tasa de desaparecidos.

Bachpan Bachao Andolan (BBA), una organización dedicada al bienestar infantil, desarrolló un software basado en FRS, que se dedica a comparar de forma automática las fotografías de los niños extraviados en TrackChild con las de los pequeños que llegan a hospitales, casas de cuidado y otras instituciones, además de que se pueden añadir nuevas bases de datos y así ampliar su alcance.

Esta plataforma fue presentada al departamento de policía quienes aceptaron arrancar una prueba piloto. Una vez puesta en marcha, BBA recibió un lote de 45.000 fotografías de la base de datos de TrackChild, y en solo cuatro días lograron identificar a 2.930 niños que se encontraban en diversos sitios del país. Todo un éxito que nadie se esperaba.

A pesar de estas buenas cifras, la autorización fue sólo para esta prueba experimental, por lo que si desean que se establezca como una herramienta más del departamento de policía y de TrackChild, antes de deben superar una gran cantidad de obstáculos legales, ya que al final se trata de la gestión de miles de fotos de menores de edad y sus datos, las cuales estarían dentro de una base de datos perteneciente a una institución privada. Institución que no ha dado detalles del funcionamiento del algoritmo y que no está dispuesta a ceder su tecnología, con años de desarrollo e inversión, aunque se trate de una buena causa. Un tema sin duda complicado.

Move Mirror, el nuevo experimento de Google que compara tus movimientos con miles de imágenes en tiempo real.


1366_2000 (1)

¿Alguna vez te has puesto a bailar frente al espejo? El último experimento de Google con inteligencia artificial, Move Mirror, te propone hacer eso mismo pero frente a la cámara de tu ordenador. Accede a la Web, inicia la experiencia.

Mientras a un lado de la pantalla aparecerás tú, en tiempo real, moviéndote y siendo identificado en cada pose por Move Mirror, al otro la inteligencia artificial te mostrará imágenes que coinciden con la postura que estás adoptando. El efecto flipbook que se crea es curioso. Las instantáneas mostradas se extraen de una base de datos compuesta por más de 80.000 archivos en los que aparecen personas bailando, practicando artes marciales, cocinando o simplemente dando un paseo.

La primera vez que accedas a la web de Move Mirror te saltará un tutorial y una vez des permisos para que el experimento pueda acceder a tu webcam podrás probarlo y, además, llevar parte de tus movimientos y su particular espejo en formato gif. Quedarán para la posteridad.

Google experimenta la tecnología para demostrar capacidades del aprendizaje automático.

Move Mirror forma parte de los AI Experiments de Google, una forma de mostrar mediante aplicaciones simples cuáles son las capacidades del aprendizaje automático y la inteligencia artificial.

Google explica que la estimación de la postura o la capacidad de detectar a los humanos y sus poses a partir de datos de imágenes es “uno de los temas más emocionantes y difíciles del aprendizaje automático y la visión artificial”.

mirrr

En este caso, la compañía y los socios con los que ha desarrollado Move Mirror ha empleado PoseNet, un modelo de estimación de movimientos que proporciona datos de posición de alta precisión a partir de datos de imagen. Incluso, aseguran y así lo podemos comprobar, incluso cuando esas imágenes no tienen toda la calidad deseable.

Esta herramienta portada a TensorFlow.js, además, es de código abierto y permite que cualquier desarrollador web pueda jugar con interacciones corporales sin cámaras especiales ni bibliotecas de visión artificial más complejas de implementar. Porque sí, todo tiene lugar en el navegador, procesándose las imágenes en tiempo real en el propio equipo. Esa es una de las virtudes de esta tecnología en continuo desarrollo.

Robot con IA llegará más allá de la exosfera.


CIMON
La inteligencia artificial es una de las tendencias tecnológicas más importantes de los últimos años, así que la NASA e IBM experimentan con IA en el espacio exterior  enviando un robot con inteligencia artificial a la Estación Espacial Internacional (ISS).

Inteligencia, cara, ojos, boca y oídos para un robot espacial

Se trata de un transporte para la NASA el robot ha sido desarrollado por Airbus e IBM para la agencia espacial alemana, con la colaboración y supervisión del hospital universitario Ludwig-Maximilian (LMU) para los aspectos humanoides del sistema.

Su nombre es CIMON (siglas de Crew Interactive Mobile Companion), tiene unas dimensiones similares a un balón medicinal o de volleyball, como dicen en The Verge, con 32 centímetros de diámetro y un peso de 5 kilogramos, y su estructura está enteramente fabricada por impresión 3D, combinando metal y plástico para su construcción.

Dado que entre sus cometidos está el demostrar que puede existir cooperación entre seres humanos y máquinas inteligentes (es uno de los experimentos), tiene “cara” (una pantalla), “ojos” (dos cámaras, y una adicional para el reconocimiento facial), “orejas” (siete micrófonos) y “boca” (un altavoz), de modo que puede mostrar contenido a los astronautas y al mismo tiempo registrar material con las cámaras, que pueden usarse para realidad aumentada. Está dotado de sensores ultrasónicos para medir distancias y 14 ventiladores, porque se trata de un robot “flotante”, al estilo de aquel Int-Ball de la JAXA (aunque quizás no tan adorable).

La colaboración de IBM fue con la Watson AI, y se trata de que CIMON vaya aprendiendo con el entrenamiento que le proporcione algún colega humano, ya que no es capaz de aprender por sí solo. El robot recurrirá a AI para el procesamiento del texto, el habla y las imágenes, así como para encontrar información específica e interpretar las reacciones de los astronautas (humor y sentimientos).

Matthias Biniok, arquitecto jefe de IBM para Watson, explica que sus habilidades pueden mejorarse con ese entrenamiento y el contexto de cada acción. Además, añade Till Eisenberg, jefe de proyecto por parte de Airbus, que CIMOS aún no incorpora todas las capacidades que se esperan de un asistente inteligente espacial en el futuro, y que se centrarán en ver qué ocurre a medio plazo en cuanto a los efectos en un pequeño grupo para poder plantear las posibilidades a largo plazo, en misiones a la Luna o Marte.

Los experimentos previstos para CIMOS cuando esté ya flotando por la ISS incluyen un cubo de Rubik, cristales y un experimento médico en el que el robot hará las veces de cámara flotante, así que prometen ser cuanto menos curiosos. Y en cuanto al manejo de CIMOS, está pensado para que no requiera las manos de los astronautas, con control por voz, y se dirigirá al astronauta que le hable, pudiendo ejecutar expresiones faciales, moviéndose de manera autónoma.

Inteligencia Artificial en Televisores

La tecnología de Inteligencia Artificial real que LG ha integrado en su gama de televisores, controlada solo por voz en todos los modelos de 2018 con sistema operativo webOS 4.0.

El sistema de Inteligencia Artificial por voz integrado en los televisores de LG utiliza un lenguaje natural para comunicarse, de forma que no te tienes que aprender una retahíla de comandos exactos. Simplemente di qué quieres hacer, la tecnología AI de LG procesará tu orden y te ofrecerá la información que le has pedido. Supone una auténtica revolución que cambiará para siempre la forma en la que interactúas con el televisor y que ninguna otra marca se ha atrevido a implementar.

LG ha puesto todos estos menús al servicio de su Inteligencia Artificial de forma que solo tienes que pedir activar o desactivar una determinada función para que se lleve a cabo. Sin complicados menús y sin tener que tocar mil botones.

La diferencia entre un sistema de control por voz y un sistema de Inteligencia Artificial real es que, mientras que el primero solo se limita a obedecer los comandos de voz, la Inteligencia Artificial de los televisores LG aprende de tus hábitos de uso. El Deep learning, que es como se conoce a este tipo de aprendizaje de la Inteligencia Artificial permitirá a tu TV aprender los comandos que le pidas a menudo y aplicarlos según tus hábitos de uso.

A partir del último trimestre de 2018, los televisores equipados con sistema operativo webOS 4.0 de LG recibirán una actualización que ampliará considerablemente la utilidad de la Inteligencia Artificial integrada ya que les permitirán conectarse a otros dispositivos inteligentes e interactuar con ellos convirtiéndose en el centro de control de todo.

El timbre inteligente con IA

belle

Belle, un timbre capaz de reconocer, hablar y dar instrucciones a los visitantes. El timbre usa tecnología Wi-Fi para saludar a visitantes y avisar al residente. Reconoce diferentes tipos de visitantes y los maneja inteligentemente. Su alerta de movimiento avanzada con ajuste de rango, tiempo y sensibilidad le permite estar seguro con sus notificaciones precisas.

Su transmisión en vivo HD y la visión nocturna infrarroja le muestran las vistas en tiempo real frente a sus puertas con vídeos claros y fluidos, días y noches.

La función de alerta de movimiento lo mantiene informado rápidamente cuando algo se acerca a su puerta, todo será capturado bajo la completa vigilancia de Belle.

Aún sin internet puede aceptar llamadas de audio para que pueda responder fácilmente a sus visitantes.

La aplicación móvil que tiene, le permite hablar con sus visitantes, incluso si no está en casa. Si se combina con un candado compatible, Belle también puede desbloquear su puerta para el visitante a petición suya.

inteligencia Artificial como Asistente en Aeropuertos.

Image ref 69609375. Copyright Rex Shutterstock No reproduction without permission. Please see www.rexfeatures.com for more information.

Munich en Alemania, cuenta con un robot que puede interactuar con los pasajeros- fabricado en Francia (con tecnología IBM Watson IoT)  -.

El robot humanoide basado en inteligencia artificial mide apenas 1,20 metros y pesa solo 28 kilos. Habla inglés y desde mediados del mes de febrero está en el aeropuerto recibiendo a los pasajeros en el Terminal 2, respondiendo preguntas sobre tiendas, restaurantes y hasta el tráfico aéreo.

Está conectado a Internet a través de la red WLAN que se vincula a la nube para procesar la información hablada, esta información es la que interpreta y vincula a los datos del aeropuerto. El robot no responde a preguntas predefinidas ni responde ni con textos estándar.

“Es su capacidad de aprendizaje la que le permite optimizar cada vez más sus respuestas y además interactuar con adultos y niños”.

Avances de la automatización (industria 4.0)

robot

Este robot  responde de forma proactiva a las peticiones de sus compañeros y reacciona ante lo que están haciendo. Se trata de un gran avance con participación de Reino Unido, Italia y Alemania.

ARMAR-6 responde de forma útil a comandos de voz simples. Si le pide una llave inglesa, por ejemplo, le preguntará cuál antes de dársela. Los investigadores responsables del robot también están probando estrategias para que el robot sea capaz de analizar una escena y planear acciones complejas en tiempo real.

En otras palabras, el robot está aprendiendo a dar una llave inglesa antes de siquiera preguntar por ella. Pero anticiparse y reaccionar ante el comportamiento de un trabajador humano es particularmente difícil, así que será interesante ver si al ARMAR-6 se le da bien de verdad.

El robot se está probando en un gran despacho altamente automatizado operado por Ocado, una tienda de comestibles en línea con sede en el Reino Unido.

El robot es una muestra de lo rápido que la automatización está penetrando en nuevos sectores laborales, y cómo las mejoras en la detección y el aprendizaje automático podrían acelerar las cosas.

Los robots ya están asumiendo tareas cada vez más complejas dentro de fábricas y almacenes. De hecho, el Gobierno del Reino Unido está estudiando si los robots pueden contribuir a  lidiar con la escasez de mano de obra provocada por el Brexit. Según un informe de la Federación Internacional de Robótica, una organización creada para promover la industria, se espera que la cantidad de robots instalados en todo el mundo aumente a 3.053.000 para 2020. Los robots colaborativos, o cobots, representan una proporción pequeña pero creciente de estas instalaciones, los equipos  que combinan humanos y robots pueden ser más eficientes que los humanos o los robots que trabajan por su cuenta.

La imaginación en la IA

opti

Dos sistemas de inteligencia artificial pueden interactuar entre sí para crear imágenes y sonidos originales ultrarrealistas; algo que las máquinas nunca habían sido capaces de hacer.

Esta tecnología confiere a las máquinas una especie de sentido de imaginación, lo que puede ayudar a que sean menos dependientes de los humanos

Ambas redes están entrenadas con el mismo conjunto de datos. Una, conocida como la generativa, tiene la tarea de crear variaciones en las imágenes que ya ha visto, tal vez una imagen de un peatón con un brazo de más. La segunda, conocida como el discriminador, debe identificar si la imagen que está viendo pertenece al conjunto de entrenamiento original o, por el contrario, si es una imagen falsa producida por la red generativa.

Machine Learning

ia-perro

El Machine Learning (Aprendizaje Automatico)es una disciplina científica de la nteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros, implica que estos sistemas se mejoran de forma autónoma con el tiempo, sin intervención humana. Veamos un ejemplo de ello:

La investigadora de la Universidad de Washington en Seattle (EE. UU.) Kiana Ehsani y su equipo han recopilado un conjunto de datos único sobre cómo se comportan los perros y lo han utilizado para entrenar un sistema de IA, con el objetivo era que la máquina aprendiera a tomar decisiones a como lo hacen los perros.

  • Para empezar, el equipo construyó una base de datos sobre el comportamiento perruno. (equiparon a un único perro con una unidad de medición inercial en sus patas, cola y cuerpo para registrar el ángulo relativo y la posición absoluta del animal)
  • También colocaron una cámara GoPro en la cabeza del animal para grabar la escena visual, captada a una velocidad de cinco fotogramas por segundo.
  • Le pusieron un micrófono para grabar el sonido.

En total, el equipo reunió alrededor de 24.500 fotogramas de vídeo sincronizados con la posición del cuerpo y los datos de movimiento del animal. Utilizaron 21.000 fotogramas para entrenar a una inteligencia artificial y dedicaron el resto para validar y probar el sistema. Los resultados fueron tres cosas: cómo actua un perro, cómo planifica y cómo aprende un perro. De esta forma buscaban predecir los movimientos futuros del perro a partir de una secuencia de imágenes. Con la secuencia de acciones que realizaba el perro, la inteligencia artificial aprendió las acciones en base a esas secuencias de fotogramas, asì también se entrenó a la IA para que reconociera qué tipo de superficies son accesibles y pudiera identificarlas en nuevas imágenes.

 

 

La Inteligencia Artificial permite reciclar tecnología Apple

 

apple-robot-daisy

Con motivo del Día de La Tierra, Apple decidió presentar a Daisy, el nuevo robot con. capaz de desmontar hasta 200 iPhones viejos en una hora, para optimizar su proceso de reciclado.

Construido por el equipo de de investigación y desarrollo de Apple, ha sido creado tras años de intensa I+D.

Incorpora una tecnología revolucionaria basada en Liam (una versión del 2016 previa a Daisy), el nuevo robot tiene algunas piezas procedentes de Liam y es capaz de desarmar, clasificar y agrupar en segundos materiales valiosos que pueden reutilizarse como cobre, oro, plata y platino. Un proceso que podría tardar horas y hasta días si se realiza por un capital humano