Apple Live Text vs Google Lens: comparación detallada

Entre las muchas características nuevas de iOS 15 , algunas pueden parecer pequeños cambios, pero son realmente útiles en su uso diario. Ya sea para compartir la pantalla en FaceTime , iCloud+ , Siri sin conexión , etc., hay muchas funciones nuevas para explorar. Una de esas características en iOS 15 es Live Text, que Apple mostró en WWDC 2021 . Entonces, si se pregunta si Live Text es tan bueno como Google Lens, aquí hay una comparación detallada de Live Text de Apple con Google Lens.

Apple Live Text vs Google Lens: ¿La mejor herramienta de reconocimiento de imágenes? (2021)

Compararemos Live Text vs Google Lens en múltiples frentes en este artículo. Hablaremos sobre la compatibilidad con idiomas, la disponibilidad sin conexión y otras características de Live Text y Google Lens. Como siempre, use la tabla de contenido a continuación para navegar entre las diferentes secciones de este artículo. Tabla de contenido

¿Qué es Live Text en iOS 15?

Para cualquiera que no haya visto la conferencia de desarrolladores de Apple, permítanme darles una descripción general rápida de la nueva función de texto en vivo en iOS 15.

Si quieres seguir leyendo este post sobre "[page_title]" dale click al botón "Mostrar todo" y podrás leer el resto del contenido gratis. aiso.la es un sitio especializado en Tecnología, Noticias, Juegos y gran cantidad de temas que te pueden interesar. Si quieres leer más información similar a [page_title], no dudes de sguir navegando por la web y suscribirte a las notificaciones del Blog y no perderte las últimas novedades.

Seguir leyendo


Básicamente, una vez que instale iOS 15 en su iPhone , su dispositivo podrá identificar el texto dentro de las imágenes, eso también directamente desde la cámara. De esa manera, puede copiar y pegar cosas del mundo real, buscar el negocio del que tomó una foto y más. Es esencialmente Google Lens pero de Apple.

Live Text vs Google Lens: qué puede hacer (características básicas)

Para comenzar, echemos un vistazo a las funciones básicas que ofrecen Live Text y Google Lens. De esa manera, podemos ver cuál de los dos trae más a la mesa desde el principio.

  • Texto en vivo de Apple

Apple Live Text, como mencioné anteriormente, puede identificar texto, números de teléfono, correos electrónicos, etc., de imágenes en su galería, así como también directamente desde la aplicación de la cámara. También está Visual Lookup, que puede identificar animales y puntos de referencia conocidos, para que pueda obtener más información sobre ellos tocándolos a través de su visor.

Una vez que haya identificado el texto en una imagen, puede usarlo de varias maneras. Obviamente, puedes copiar y pegar el texto donde quieras, pero hay más que puedes hacer. Si ha identificado un correo electrónico, Live Text le dará directamente la opción de crear un nuevo correo electrónico para esa dirección. Tendrá la opción de llamar si el texto identificado es un número de teléfono, abrir cualquier dirección identificada en Apple Maps y más.

También hay traducción integrada gracias a la aplicación Apple Translate. Puede tocar el botón “Traducir” en el menú contextual emergente para traducir el texto identificado al inglés (o cualquiera de los idiomas admitidos).

Quizás lo más útil para mí es el hecho de que Live Text puede entender cuándo hay un número de seguimiento en una imagen y puede permitirle abrir directamente el enlace de seguimiento, lo cual es bastante impresionante.

  • Lente de Google

Por otro lado, Google Lens también puede hacer muchas cosas interesantes. Obviamente, puede identificar texto dentro de imágenes o directamente desde la aplicación de su cámara. Luego puede copiar y pegar el texto resaltado o, de manera similar a Live Text, hacer una llamada telefónica, enviar un correo electrónico y más. También puede crear un nuevo evento de calendario directamente desde Google Lens, lo que puede ser útil.

Otra característica interesante de Google Lens es el escaneo de tarjetas de presentación. Si alguien le entrega su tarjeta de presentación, puede escanearla con Google Lens y tendrá la opción de agregar un nuevo contacto con todos sus detalles completados automáticamente. Eso es realmente genial, y es algo que usamos a menudo mientras asistíamos a eventos de lanzamiento y establecíamos contactos con la gente.

Ahora, la función de búsqueda visual de Live Text puede identificar lugares famosos, libros, animales, etc., pero Google Lens está en otro nivel cuando se trata de reconocimiento de objetos.

Gracias a la experiencia de Google con la búsqueda y la búsqueda de imágenes, Google Lens puede aprovechar todo ese conocimiento e identificar prácticamente cualquier objeto que vea a su alrededor. Ya sea una planta, un bolígrafo o un bolso de mano que viste que llevaba tu celebridad favorita. Simplemente escanee la imagen con Google Lens y obtendrá resultados de búsqueda. Esa es una característica genial de Google Lens que Live Text/ Visual Lookup de Apple no tiene.

Además, Google Lens también puede ayudarte con tu tarea. Esa es otra cosa que Live Text simplemente no puede hacer. Puede escanear un problema matemático con Google Lens y le dará soluciones paso a paso. También funciona para otras materias, como física, biología, historia, química y más.

Claramente, Google Lens ofrece muchas más funciones que Live Text de Apple en este momento. Con suerte, Apple hará que Live Text sea más útil y agregue más funciones a la mezcla a medida que pasen los años. Pero a partir de ahora, Google Lens tiene más funciones y ofrece más capacidades que Live Text.

Live Text vs Google Lens: Integración

A continuación, hablemos de la integración de estas funciones de reconocimiento de imágenes en el sistema operativo en su conjunto. Bueno, Apple siempre ha tenido un enfoque único en las experiencias integradas, y eso también se extiende a Live Text.

En su iPhone, con iSO 15, Live Text está integrado en la aplicación Fotos predeterminada, así como en la cámara. Si bien ese también es el caso de Google Lens en teléfonos Android, la diferencia es que debe tocar para habilitar Google Lens para comenzar a escanear texto, objetos o cualquier otra cosa que esté tratando de hacer. Live Text, por otro lado, está prácticamente siempre activo. Simplemente puede mantener presionado el texto que está tratando de copiar y pegar o el número de teléfono al que desea llamar, y puede continuar.

Además, Live Text también viene integrado en iOS 15. Entonces, si está usando una aplicación de mensajería como WhatsApp , o cualquier otra aplicación como Notas, o la aplicación de correo electrónico en iPhone , y desea escanear y pegar texto del mundo real, puede usar la función “Texto de la cámara” para introduzca el texto directamente. Echa un vistazo a esta función en acción aquí mismo:

También existe una función similar con Google Lens, pero en ese caso, primero deberá cambiar a la aplicación de su cámara, dirigirse a Google Lens, escanear el texto y copiarlo, y luego volver a la aplicación original y pegarlo. allá. Son muchos pasos adicionales con los que no necesita preocuparse si está utilizando Live Text.

Apple suele ser muy bueno integrando sus funciones en los dispositivos que vende, y Live Text no es una excepción. Funciona donde lo necesites y se vuelve útil en formas en las que querrás usarlo. No puedo decir lo mismo de Google Lens en Android, especialmente en el uso diario.

Claramente, Live Text es mejor en este sentido, pero espero que Google Lens traiga pronto un tipo de integración similar. Porque cuando las buenas características se copian de otros lugares, terminan mejorando los productos para nosotros, y estoy totalmente de acuerdo.

Live Text vs Google Lens: Precisión

En lo que respecta a la precisión, tanto Google Lens como Apple Live Text son igualmente buenos. He usado mucho Google Lens, y he estado usando Live Text en mi iPhone durante los últimos días, y todavía no he notado ningún problema con la precisión en ninguno de estos programas de reconocimiento de imágenes.

Dicho esto, he notado que si está escaneando texto con Live Text, a veces confunde “O” (la letra) con un “0” (el dígito) y viceversa. Eso puede ser un poco molesto y no es algo a lo que quiera dar un pase, pero teniendo en cuenta que todavía es una versión beta, no voy a considerarlo un gran problema.

Por otro lado, cuando se trata de reconocimiento de objetos, Google Lens tiene la ventaja completa. No solo puede identificar más objetos y animales que Visual Lookup en un iPhone, sino que también es preciso con los resultados. Visual Lookup falló por completo en reconocer cualquier objeto para mí, e incluso le envié una imagen del puente Golden Gate, que es el ejemplo exacto que Apple usó en su discurso de apertura de WWDC 2021. Pero eso tampoco funcionó, así que claramente, la característica necesita mucho trabajo.

En general, Google Lens tiene una mejor precisión que la función Live Text de Apple en iOS 15. Sin embargo, es una competencia cercana en lo que respecta a mensajes de texto, correos electrónicos, números de teléfono, etc.

Live Text vs Google Lens: soporte de idiomas

Dado que tanto Google Lens como Live Text admiten la traducción, es importante considerar en qué idiomas trabajan ambos. Eso también se extiende a los idiomas en los que incluso pueden identificar texto y, bueno, cuando se trata de estas métricas, Live Text está muy por detrás de Google. Lente.

Estos son los idiomas admitidos por Live Text para la traducción:

  • Inglés
  • Chino
  • Francés
  • italiano
  • Alemán
  • portugués
  • Español

Por otro lado, Google Lens admite la traducción en todos los idiomas con los que puede trabajar Google Translate. Eso es más de 103 idiomas para la traducción de texto. En contraste con este número, el soporte de siete idiomas de Apple se desvanece hasta la nada.

Texto en vivo frente a Google Lens: compatibilidad con dispositivos

La nueva función Live Text de Apple está disponible en iPhone con iOS 15, iPad con iPadOS 15 y macOS 12 Monterey .

Google Lens está disponible para su uso en todos los dispositivos con Android 6.0 Marshmallow y superior. Además, está integrado en Google Photos y la aplicación de Google, lo que significa que también puede usarlo en dispositivos iOS.

No sorprende que Google Lens esté disponible en más dispositivos que Apple Live Text. Sin embargo, si usa varios dispositivos y desea una solución única para el reconocimiento de imágenes, Google Lens tiene más posibilidades de estar disponible en diferentes ecosistemas.

Google Lens vs Live Text: ¿Cuál debería usar?

Ahora que hemos pasado por todos los diferentes puntos de comparación tanto para Live Text como para Google Lens, la pregunta sigue siendo, ¿cuál debería usar? Esa respuesta variará de persona a persona. Como alguien que está profundamente involucrado en el ecosistema de Apple, he usado Live Text más en la última semana que Google Lens. Sin embargo, Google Lens ofrece capacidades únicas que Live Text y Visual Lookup no ofrecen.

Todo depende de sus casos de uso y su flujo de trabajo. No suelo preguntarme dónde puedo comprar un par de jeans que llevaba Chris Hemsworth. Pero me encuentro queriendo agregar texto a mi conversación de WhatsApp sin copiarlo y pegarlo de mi Mac, y Live Text me permite hacerlo más fácilmente que Google Lens. Entonces, ¿qué opinas sobre Google Lens vs Live Text? ¿Cuál crees que es mejor y por qué? Háganos saber en los comentarios.

Scroll al inicio