Copilot Vision de Microsoft aterriza en Android justo cuando se despliega el modo de video de Gemini Live

Resumen
Microsoft lanzó Copilot Vision por primera vez en octubre de 2024 para el navegador Edge, lo que permite a los usuarios consultar el contenido de la página web. Ahora, Copilot Vision se está expandiendo a la aplicación Mobile Copilot, ganando características multimodales para analizar videos y fotos en tiempo real. Esta función actualizada, similar a Gemini Live de Google, actualmente está disponible solo para copilotear suscriptores Pro dentro de los Estados Unidos a través del modo de voz de la aplicación.
Desde que Microsoft lanzó su chatbot Ai el 6 de febrero de 2023, el gigante tecnológico ha dirigido la mayor parte de sus esfuerzos para desarrollar copilot y garantizar que supere su competencia. Y se refiere a una competencia seria, comenzando con Google Gemini. Esta es la razón por la cual Microsoft deja deja las funciones de copilot cada pocos días.
A principios de octubre de 2024, la compañía anunció un gran lote de características de copilot, que incluía Vision Copilot. Esta característica fue diseñada para escanear una página web y luego permitir que las personas hagan cualquier pregunta que puedan tener al respecto. En el lanzamiento, Copilot Vision se limitó al navegador propio de Microsoft, Edge.
Relacionado ¿Qué es Microsoft Copilot?
El chatbot más nuevo con IA en el mercado tiene un potencial real
Avance rápido hasta el 4 de abril de 2025, Microsoft celebró su 50 aniversario realizando un evento de copilot, donde anunció múltiples características nuevas, incluyendo memoria de copilot, podcasts de IA, investigación profunda y páginas. En particular, Microsoft también anunció que Copilot Vision finalmente está llegando a la aplicación Copilot de Microsoft en Android e iOS (a través de los titulares de Android).
Copilot Vision se vuelve multimodal, pero Gemini Live llegó primero
La mejor parte no es solo que la función se está integrando en la aplicación móvil. Es que Copilot Vision ahora está obteniendo capacidad multimodal y puede analizar videos y fotos en tiempo real que ha almacenado en su dispositivo. A partir de ahí, puede hacerle al Asistente de AI cualquier pregunta que pueda tener. Por ejemplo, puede señalar su cámara hacia su oficina vacía y pedir consejos sobre cómo decorarla.
Al momento de escribir, Copilot Vision se puede encontrar dentro del modo de voz de la aplicación Mobile Copilot, pero tenga en cuenta que no está disponible para los usuarios en el nivel gratuito.
Copilot Vision solo está disponible para los suscriptores de Copilot Pro dentro de los Estados Unidos.
Si la característica suena incluso remotamente familiar, es porque Google lo hizo primero con su proyecto ASTRA F para Gemini. Google mostró las nuevas capacidades de video en vivo de Gemini Live durante MWC 2025, que funciona de la misma manera que las nuevas capacidades de Copilot Vision tienen como objetivo funcionar. Con esta función, puede compartir la pantalla de su teléfono o una vista en tiempo real de la alimentación de su cámara con Gemini Live, entonces, como habrá adivinado, puede hacerle a la IA cualquier pregunta que pueda tener.
Fuente: Google
La función comenzó a aterrizar en dispositivos seleccionados hace aproximadamente dos semanas, y luego para los usuarios de Pixel a fines de la semana pasada. Justo hoy, Samsung anunció que el nuevo modo de video de Gemini Live ahora está disponible de forma gratuita en todos los modelos Galaxy S25, además de personas con los propios dispositivos Pixel 9 de Google. En general, está claro que tanto Google como Microsoft están luchando para construir el último asistente de IA.