
Google está mejorando Google Lens, su aplicación asistida por visión artificial que muestra información relacionada con los objetos que identifica, con nuevas funciones.
A partir de hoy, Lens puede detectar afecciones de la piel similares a las que puede ver en su propia piel, como lunares y erupciones. Al cargar una foto o una foto con Lens, se iniciará una búsqueda de coincidencias visuales, que también funcionará para otras dolencias físicas que tal vez no esté seguro de cómo expresar con palabras (como un bulto en el labio, una línea en las uñas o cabello). pérdida).
Eso está a un paso de la aplicación impulsada por IA de Google lanzada en 2021 para diagnosticar afecciones de la piel, el cabello y las uñas. La primera aplicación que debutó en la UE enfrentó barreras de entrada en los EE. UU., donde tendría que ser aprobada por la Administración de Alimentos y Medicamentos. (Google rechazó el permiso).

Créditos de la imagen: Google
Aún así, la función Lens puede ser útil para aquellos que deciden buscar atención médica o un tratamiento de venta libre.
En otros lugares, como se anunció previamente en I/O, Lens se está integrando con Bard, el chatbot impulsado por IA de Google. Los usuarios podrán adjuntar imágenes a la información sobre herramientas de Bard, y Lens trabajará detrás de escena para ayudar a Bard a comprender lo que se muestra. Por ejemplo, mostró una imagen de zapatos y preguntó cómo se llamaban, Bard, informado por el análisis de Lens, regresará con una respuesta.
Esta es la última actualización de Bard, la respuesta de Google a ChatGPT, ya que Google invierte cada vez más recursos en tecnologías de IA generativa. La semana pasada, Google lanzó una función que le permite a Bard escribir, ejecutar y probar su propio código en segundo plano, mejorando su capacidad para programar y resolver problemas matemáticos complejos. Y en mayo, Google se asoció con Adobe para llevar la generación de gráficos a Bard.