9 ene

Inteligencia Artificial que crea campaña de forma inteligente pensada en Pymes

 

ADEXT-inteligencia-artificial

Este Software estará promoviendo un producto o servicio las 24/7 en las principales plataformas de internet para atraer más clientes potenciales hacia una página web e incrementar las ventas.

La creación de campaña de anuncios basada en Big Data: Una vez que se haya adquirido el plan más conveniente para el negocio, el robot va guiando al usuario para que proporcione la información necesaria para crear los anuncios: nombre de la empresa, descripción del producto o servicio que ofrece al mercado, palabras clave, imagen de los anuncios, mercado objetivo, locación, objetivos de la campaña, etc. Con esta información, crea la campaña de anuncios y enseña una vista previa de los mismos para que el usuario visualice cómo se verán en Google, Facebook e Instagram

En este proceso inicial de creación de la campaña, ADEXT analiza una gran base de datos de campañas alrededor del mundo (Big Data) para poder determinar y predecir las tendencias y los patrones de éxito que funcionarán mejor para cada tipo de negocio.

  • Optimización de anuncios a través de machine learning: Cuando se lance una campaña de anuncios en las principales plataformas de internet, el robot la optimizará a través de tecnología machine learning. Los algoritmos avanzados del robot van analizando los resultados de la campaña de anuncios para aprender y detectar, conforme pasa el tiempo, qué es lo que está funcionando mejor para el negocio y con estos hallazgos optimiza constantemente la campaña para brindar mejores resultados.
  • Reporte de resultados diario: Se puede monitorear los principales resultados de una campaña desde el dashboard de la plataforma. Los indicadores que ADEXT reporta son: impresiones, clics, visitas, CTR, engagement en redes sociales, información demográfica de los visitantes de la página, dispositivos de acceso y, finalmente, conversiones (registros de clientes potenciales a través de un formulario de contacto; o bien, ventas, en el caso particular de un e-commerce).

ADEXT fue creada pensando en  mercado PYMES. Al brindarles la posibilidad de tener acceso a publicidad avanzada, podrán atraer clientes potenciales que a su vez se traducirán en más ganancias para la empresa.

29 nov

Habrá chatbots hasta en la sopa, en 2022

Aunque quizá no lo sepa, los chatbot atienden muchas de las cuestiones que en el día a día planteamos a las empresas respecto de sus servicios. Y lo que dicen los expertos es que los tendremos, en unos años, hasta en la sopa.

La semana pasada el Madrid Mutua Máster de Tenis anunció que ponía a disposición de los espectadores que asistían al Torneo un chatbot dotado con inteligencia artificial (IA) que ofrecía información sobre el desarrollo del evento, los jugadores y resultados, así como detalles sobre servicios, accesos y aparcamientos. El MatchBot fue posible gracias a la tecnología de Oracle y sus partners Crambo y BPM SOA Solutions (BSS).

Pero hay muchos más en el mercado, como el que tienen la CNN, The Wall Street Journal y Quartz para ofrecer titulares y noticias a sus clientes de forma interactiva, y permitirles solicitar más profundidad en las informaciones. O como el que tiene el Bank of América, y en el que trabajan actualmente los ingenieros de Facebook para crear una inteligencia artificial comprensiva que ofrezca al cliente mejores servicios en función de los patrones de uso de los servicios bancarios. O como el que utiliza la compañía de Seguros Génesis, que está usando la tecnología IBM de Watson para gestionar las necesidades de sus clientes.
chatbot_0

 

Para mas información visite: https://www.muyinteresante.es/tecnologia/inteligencia-artificial/articulo/habra-chatbots-hasta-en-la-sopa-en-2022-111526045492

Publicada en IA
24 jul

Usan reconocimiento facial para localizar niños extraviados.

digeorge-1

De acuerdo con los datos del Ministerio de Desarrollo de la Mujer y el Niño en la India, entre 2012 y 2017 desaparecieron más de 240.000 niños, esto tan sólo de los casos reportados, ya que otras instituciones estiman que la cifra ya supera los 500.000 niños extraviados cada año.

Ante esta problemática, el gobierno de la india se ha visto superado, ya que algunos de estos niños terminan alojados en instituciones de cuidado infantil. Al no existir un departamento dedicado a comparar las fotografías de los niños extraviados con las de aquellos que llegan a las casas de cuidado, la situación se complica y hace que cada vez más niños no regresen con sus padres. Por fortuna, la tecnología  ayuda a través de los sistemas de reconocimiento facial (FRS).

FRS todo un éxito

Con el objetivo de tratar de resolver el asunto de los niños extraviados, y el preocupante aumento de las cifras, el Ministerio creó una base de datos en línea a nivel nacional conocida como TrackChild. Puedes consultar las fotos de los niños desparecidos y encontrados, así como la información policial que puede ser usada por otras agencias e incluso los ciudadanos.

TrackChild también sirve para levantar reportes de niños extraviados, y a pesar de ser una buena herramienta digital al concentrar en un solo sitio todo este tipo de información, la acumulación de fotografías se ha convertido en un problema para las instituciones, quienes no han podido disminuir la tasa de desaparecidos.

Bachpan Bachao Andolan (BBA), una organización dedicada al bienestar infantil, desarrolló un software basado en FRS, que se dedica a comparar de forma automática las fotografías de los niños extraviados en TrackChild con las de los pequeños que llegan a hospitales, casas de cuidado y otras instituciones, además de que se pueden añadir nuevas bases de datos y así ampliar su alcance.

Esta plataforma fue presentada al departamento de policía quienes aceptaron arrancar una prueba piloto. Una vez puesta en marcha, BBA recibió un lote de 45.000 fotografías de la base de datos de TrackChild, y en solo cuatro días lograron identificar a 2.930 niños que se encontraban en diversos sitios del país. Todo un éxito que nadie se esperaba.

A pesar de estas buenas cifras, la autorización fue sólo para esta prueba experimental, por lo que si desean que se establezca como una herramienta más del departamento de policía y de TrackChild, antes de deben superar una gran cantidad de obstáculos legales, ya que al final se trata de la gestión de miles de fotos de menores de edad y sus datos, las cuales estarían dentro de una base de datos perteneciente a una institución privada. Institución que no ha dado detalles del funcionamiento del algoritmo y que no está dispuesta a ceder su tecnología, con años de desarrollo e inversión, aunque se trate de una buena causa. Un tema sin duda complicado.

23 jul

Move Mirror, el nuevo experimento de Google que compara tus movimientos con miles de imágenes en tiempo real.


1366_2000 (1)

¿Alguna vez te has puesto a bailar frente al espejo? El último experimento de Google con inteligencia artificial, Move Mirror, te propone hacer eso mismo pero frente a la cámara de tu ordenador. Accede a la Web, inicia la experiencia.

Mientras a un lado de la pantalla aparecerás tú, en tiempo real, moviéndote y siendo identificado en cada pose por Move Mirror, al otro la inteligencia artificial te mostrará imágenes que coinciden con la postura que estás adoptando. El efecto flipbook que se crea es curioso. Las instantáneas mostradas se extraen de una base de datos compuesta por más de 80.000 archivos en los que aparecen personas bailando, practicando artes marciales, cocinando o simplemente dando un paseo.

La primera vez que accedas a la web de Move Mirror te saltará un tutorial y una vez des permisos para que el experimento pueda acceder a tu webcam podrás probarlo y, además, llevar parte de tus movimientos y su particular espejo en formato gif. Quedarán para la posteridad.

Google experimenta la tecnología para demostrar capacidades del aprendizaje automático.

Move Mirror forma parte de los AI Experiments de Google, una forma de mostrar mediante aplicaciones simples cuáles son las capacidades del aprendizaje automático y la inteligencia artificial.

Google explica que la estimación de la postura o la capacidad de detectar a los humanos y sus poses a partir de datos de imágenes es “uno de los temas más emocionantes y difíciles del aprendizaje automático y la visión artificial”.

mirrr

En este caso, la compañía y los socios con los que ha desarrollado Move Mirror ha empleado PoseNet, un modelo de estimación de movimientos que proporciona datos de posición de alta precisión a partir de datos de imagen. Incluso, aseguran y así lo podemos comprobar, incluso cuando esas imágenes no tienen toda la calidad deseable.

Esta herramienta portada a TensorFlow.js, además, es de código abierto y permite que cualquier desarrollador web pueda jugar con interacciones corporales sin cámaras especiales ni bibliotecas de visión artificial más complejas de implementar. Porque sí, todo tiene lugar en el navegador, procesándose las imágenes en tiempo real en el propio equipo. Esa es una de las virtudes de esta tecnología en continuo desarrollo.

Publicada en IA
29 jun

Robot con IA llegará más allá de la exosfera.


CIMON
La inteligencia artificial es una de las tendencias tecnológicas más importantes de los últimos años, así que la NASA e IBM experimentan con IA en el espacio exterior  enviando un robot con inteligencia artificial a la Estación Espacial Internacional (ISS).

Inteligencia, cara, ojos, boca y oídos para un robot espacial

Se trata de un transporte para la NASA el robot ha sido desarrollado por Airbus e IBM para la agencia espacial alemana, con la colaboración y supervisión del hospital universitario Ludwig-Maximilian (LMU) para los aspectos humanoides del sistema.

Su nombre es CIMON (siglas de Crew Interactive Mobile Companion), tiene unas dimensiones similares a un balón medicinal o de volleyball, como dicen en The Verge, con 32 centímetros de diámetro y un peso de 5 kilogramos, y su estructura está enteramente fabricada por impresión 3D, combinando metal y plástico para su construcción.

Dado que entre sus cometidos está el demostrar que puede existir cooperación entre seres humanos y máquinas inteligentes (es uno de los experimentos), tiene “cara” (una pantalla), “ojos” (dos cámaras, y una adicional para el reconocimiento facial), “orejas” (siete micrófonos) y “boca” (un altavoz), de modo que puede mostrar contenido a los astronautas y al mismo tiempo registrar material con las cámaras, que pueden usarse para realidad aumentada. Está dotado de sensores ultrasónicos para medir distancias y 14 ventiladores, porque se trata de un robot “flotante”, al estilo de aquel Int-Ball de la JAXA (aunque quizás no tan adorable).

La colaboración de IBM fue con la Watson AI, y se trata de que CIMON vaya aprendiendo con el entrenamiento que le proporcione algún colega humano, ya que no es capaz de aprender por sí solo. El robot recurrirá a AI para el procesamiento del texto, el habla y las imágenes, así como para encontrar información específica e interpretar las reacciones de los astronautas (humor y sentimientos).

Matthias Biniok, arquitecto jefe de IBM para Watson, explica que sus habilidades pueden mejorarse con ese entrenamiento y el contexto de cada acción. Además, añade Till Eisenberg, jefe de proyecto por parte de Airbus, que CIMOS aún no incorpora todas las capacidades que se esperan de un asistente inteligente espacial en el futuro, y que se centrarán en ver qué ocurre a medio plazo en cuanto a los efectos en un pequeño grupo para poder plantear las posibilidades a largo plazo, en misiones a la Luna o Marte.

Los experimentos previstos para CIMOS cuando esté ya flotando por la ISS incluyen un cubo de Rubik, cristales y un experimento médico en el que el robot hará las veces de cámara flotante, así que prometen ser cuanto menos curiosos. Y en cuanto al manejo de CIMOS, está pensado para que no requiera las manos de los astronautas, con control por voz, y se dirigirá al astronauta que le hable, pudiendo ejecutar expresiones faciales, moviéndose de manera autónoma.

27 jun

Inteligencia Artificial en Televisores

La tecnología de Inteligencia Artificial real que LG ha integrado en su gama de televisores, controlada solo por voz en todos los modelos de 2018 con sistema operativo webOS 4.0.

El sistema de Inteligencia Artificial por voz integrado en los televisores de LG utiliza un lenguaje natural para comunicarse, de forma que no te tienes que aprender una retahíla de comandos exactos. Simplemente di qué quieres hacer, la tecnología AI de LG procesará tu orden y te ofrecerá la información que le has pedido. Supone una auténtica revolución que cambiará para siempre la forma en la que interactúas con el televisor y que ninguna otra marca se ha atrevido a implementar.

LG ha puesto todos estos menús al servicio de su Inteligencia Artificial de forma que solo tienes que pedir activar o desactivar una determinada función para que se lleve a cabo. Sin complicados menús y sin tener que tocar mil botones.

La diferencia entre un sistema de control por voz y un sistema de Inteligencia Artificial real es que, mientras que el primero solo se limita a obedecer los comandos de voz, la Inteligencia Artificial de los televisores LG aprende de tus hábitos de uso. El Deep learning, que es como se conoce a este tipo de aprendizaje de la Inteligencia Artificial permitirá a tu TV aprender los comandos que le pidas a menudo y aplicarlos según tus hábitos de uso.

A partir del último trimestre de 2018, los televisores equipados con sistema operativo webOS 4.0 de LG recibirán una actualización que ampliará considerablemente la utilidad de la Inteligencia Artificial integrada ya que les permitirán conectarse a otros dispositivos inteligentes e interactuar con ellos convirtiéndose en el centro de control de todo.

22 may

El timbre inteligente con IA

belle

Belle, un timbre capaz de reconocer, hablar y dar instrucciones a los visitantes. El timbre usa tecnología Wi-Fi para saludar a visitantes y avisar al residente. Reconoce diferentes tipos de visitantes y los maneja inteligentemente. Su alerta de movimiento avanzada con ajuste de rango, tiempo y sensibilidad le permite estar seguro con sus notificaciones precisas.

Su transmisión en vivo HD y la visión nocturna infrarroja le muestran las vistas en tiempo real frente a sus puertas con vídeos claros y fluidos, días y noches.

La función de alerta de movimiento lo mantiene informado rápidamente cuando algo se acerca a su puerta, todo será capturado bajo la completa vigilancia de Belle.

Aún sin internet puede aceptar llamadas de audio para que pueda responder fácilmente a sus visitantes.

La aplicación móvil que tiene, le permite hablar con sus visitantes, incluso si no está en casa. Si se combina con un candado compatible, Belle también puede desbloquear su puerta para el visitante a petición suya.

Publicada en IA
22 may

inteligencia Artificial como Asistente en Aeropuertos.

Image ref 69609375. Copyright Rex Shutterstock No reproduction without permission. Please see www.rexfeatures.com for more information.

Munich en Alemania, cuenta con un robot que puede interactuar con los pasajeros- fabricado en Francia (con tecnología IBM Watson IoT)  -.

El robot humanoide basado en inteligencia artificial mide apenas 1,20 metros y pesa solo 28 kilos. Habla inglés y desde mediados del mes de febrero está en el aeropuerto recibiendo a los pasajeros en el Terminal 2, respondiendo preguntas sobre tiendas, restaurantes y hasta el tráfico aéreo.

Está conectado a Internet a través de la red WLAN que se vincula a la nube para procesar la información hablada, esta información es la que interpreta y vincula a los datos del aeropuerto. El robot no responde a preguntas predefinidas ni responde ni con textos estándar.

“Es su capacidad de aprendizaje la que le permite optimizar cada vez más sus respuestas y además interactuar con adultos y niños”.

8 may

Avances de la automatización (industria 4.0)

robot

Este robot  responde de forma proactiva a las peticiones de sus compañeros y reacciona ante lo que están haciendo. Se trata de un gran avance con participación de Reino Unido, Italia y Alemania.

ARMAR-6 responde de forma útil a comandos de voz simples. Si le pide una llave inglesa, por ejemplo, le preguntará cuál antes de dársela. Los investigadores responsables del robot también están probando estrategias para que el robot sea capaz de analizar una escena y planear acciones complejas en tiempo real.

En otras palabras, el robot está aprendiendo a dar una llave inglesa antes de siquiera preguntar por ella. Pero anticiparse y reaccionar ante el comportamiento de un trabajador humano es particularmente difícil, así que será interesante ver si al ARMAR-6 se le da bien de verdad.

El robot se está probando en un gran despacho altamente automatizado operado por Ocado, una tienda de comestibles en línea con sede en el Reino Unido.

El robot es una muestra de lo rápido que la automatización está penetrando en nuevos sectores laborales, y cómo las mejoras en la detección y el aprendizaje automático podrían acelerar las cosas.

Los robots ya están asumiendo tareas cada vez más complejas dentro de fábricas y almacenes. De hecho, el Gobierno del Reino Unido está estudiando si los robots pueden contribuir a  lidiar con la escasez de mano de obra provocada por el Brexit. Según un informe de la Federación Internacional de Robótica, una organización creada para promover la industria, se espera que la cantidad de robots instalados en todo el mundo aumente a 3.053.000 para 2020. Los robots colaborativos, o cobots, representan una proporción pequeña pero creciente de estas instalaciones, los equipos  que combinan humanos y robots pueden ser más eficientes que los humanos o los robots que trabajan por su cuenta.

4 may

La imaginación en la IA

opti

Dos sistemas de inteligencia artificial pueden interactuar entre sí para crear imágenes y sonidos originales ultrarrealistas; algo que las máquinas nunca habían sido capaces de hacer.

Esta tecnología confiere a las máquinas una especie de sentido de imaginación, lo que puede ayudar a que sean menos dependientes de los humanos

Ambas redes están entrenadas con el mismo conjunto de datos. Una, conocida como la generativa, tiene la tarea de crear variaciones en las imágenes que ya ha visto, tal vez una imagen de un peatón con un brazo de más. La segunda, conocida como el discriminador, debe identificar si la imagen que está viendo pertenece al conjunto de entrenamiento original o, por el contrario, si es una imagen falsa producida por la red generativa.

Publicada en IA
23 abr

Machine Learning

ia-perro

El Machine Learning (Aprendizaje Automatico)es una disciplina científica de la nteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros, implica que estos sistemas se mejoran de forma autónoma con el tiempo, sin intervención humana. Veamos un ejemplo de ello:

La investigadora de la Universidad de Washington en Seattle (EE. UU.) Kiana Ehsani y su equipo han recopilado un conjunto de datos único sobre cómo se comportan los perros y lo han utilizado para entrenar un sistema de IA, con el objetivo era que la máquina aprendiera a tomar decisiones a como lo hacen los perros.

  • Para empezar, el equipo construyó una base de datos sobre el comportamiento perruno. (equiparon a un único perro con una unidad de medición inercial en sus patas, cola y cuerpo para registrar el ángulo relativo y la posición absoluta del animal)
  • También colocaron una cámara GoPro en la cabeza del animal para grabar la escena visual, captada a una velocidad de cinco fotogramas por segundo.
  • Le pusieron un micrófono para grabar el sonido.

En total, el equipo reunió alrededor de 24.500 fotogramas de vídeo sincronizados con la posición del cuerpo y los datos de movimiento del animal. Utilizaron 21.000 fotogramas para entrenar a una inteligencia artificial y dedicaron el resto para validar y probar el sistema. Los resultados fueron tres cosas: cómo actua un perro, cómo planifica y cómo aprende un perro. De esta forma buscaban predecir los movimientos futuros del perro a partir de una secuencia de imágenes. Con la secuencia de acciones que realizaba el perro, la inteligencia artificial aprendió las acciones en base a esas secuencias de fotogramas, asì también se entrenó a la IA para que reconociera qué tipo de superficies son accesibles y pudiera identificarlas en nuevas imágenes.

 

 

19 abr

La Inteligencia Artificial permite reciclar tecnología Apple

 

apple-robot-daisy

Con motivo del Día de La Tierra, Apple decidió presentar a Daisy, el nuevo robot con. capaz de desmontar hasta 200 iPhones viejos en una hora, para optimizar su proceso de reciclado.

Construido por el equipo de de investigación y desarrollo de Apple, ha sido creado tras años de intensa I+D.

Incorpora una tecnología revolucionaria basada en Liam (una versión del 2016 previa a Daisy), el nuevo robot tiene algunas piezas procedentes de Liam y es capaz de desarmar, clasificar y agrupar en segundos materiales valiosos que pueden reutilizarse como cobre, oro, plata y platino. Un proceso que podría tardar horas y hasta días si se realiza por un capital humano