Dimensity 9200+, el nuevo chipset insignia de MediaTek para móviles de alta gama, es oficial

 

MediaTek Dimensity 9200 Plus

MediaTek sigue aumentando su cartera de chipsets para teléfonos móviles inteligentes anunciando en el día de hoy una serie de modelos, entre los que destaca claramente el nuevo Dimensity 9200+, orientado a los teléfonos móviles inteligentes de gama alta.

Dimensity 9200+ es básicamente la versión actualizada del MediaTek Dimensity 9200 lanzado el pasado año para competir con los chipsets de gama alta de Qualcomm para móviles inteligentes, aportando mejoras de rendimiento y mayores eficiencias energéticas, sobre todo, en tareas bastante intensivas.

Aumento de velocidades de los núcleos, mayor eficiencia energética, y más

La estructura del nuevo Dimensity 9200+ está basada en ocho núcleos, con cuatro núcleos de rendimiento estando el ultranúcleo Arm Cortex-X3 a 3,35GHz junto a tres supernúcleos Arm Cortex-A715 a 3,0GHz, y cuatro núcleos de eficiencia Arm Cortex-A510 a 2,0GHz, estando fabricado en un proceso de 4 nm de segunda generación de TSMC.

El nuevo Dimensity 9200+ utiliza la GPU Arm Immortalis-G715, que cuenta con once núcleos, y que según afirma la compañía, consigue un aumento del rendimiento en general del 17%, albergando además mejoras en la tecnología de trazado de rayos para hacer frente a los detalles de los objetos en los complejos escenarios de iluminación.

A nivel de conectividad, MediaTek dice que el nuevo Dimensity 9200+ cuenta con un módem 5G compatible con conexiones sub-6GHz de largo alcance y con conexiones mmWave súper rápidas, siendo también compatible con redes Wi-Fi 7 con hasta 6,5 ​​Gbps en velocidad de datos, junto con Bluetooth 5.3.

Agregan que la tecnología de coexistencia Bluetooth y Wi-Fi de MediaTek posibilita que el Wi-Fi, el audio Bluetooth de baja energía (LE) y los periféricos inalámbricos se conecten al mismo tiempo con una muy baja latencia y sin inferencias.

Principales características

Como principales características del nuevo chipset desde MediaTek señalan a HyperEngine 6.0 como tecnología de rendimiento que permite potenciar los juegos con altas tasas de cuadros.

También cuenta la sexta generación de su unidad de procesamiento de IA, APU 690, que potencia funciones de cámara, y la integración del procesador de señal de imagen insignia MediaTek Imagiq 890, que permite conseguir imágenes y vídeos brillantes incluso en bajas condiciones de iluminación.

También se caracteriza por integrar a MediaTek MiraVision 890 para conseguir una visualización fluida con una tasa de refresco adaptativo y MediaTek 5G UltraSave 3.0 como tecnología de eficiencia energética que logra una mayor duración de la batería bajo conectividad 5G.

Para este mes de mayo llegarán los primeros modelos con el nuevo chipset

La compañía señala que los primeros modelos de móviles con el nuevo chipset insignia llegarán este mismo mes de mayo, por lo que no habrá que esperar mucho, si bien hay quienes piensan que móviles con el nuevo chipset insignia tarden en llegar a los Estados Unidos.

Más información/Crédito de la imagen: MediaTek

Google Bard, la IA conversacional de Google, llega a más personas, con respuestas mejoradas y más funciones

Google Bard

Como parte del evento Google I/O que tiene lugar estos días, y donde hoy se ha llevado a cabo la keynote inaugural, Google ha mencionado algunas novedades para Google Bard, su propio servicio de Inteligencia Artificial conversacional.

Google Bard llegó meses atrás prácticamente forzado para hacer frente al auge y popularización de ChatGPT de OpenAI, y de las integraciones de las tecnologías de OpenAI en los diferentes servicios de Microsoft, empezando por su motor de búsquedas.

Google Bard al alcance de más personas en todo el mundo

La compañía está haciendo que Google Bard comience a estar disponible para un mayor número de personas en todo el mundo a partir de hoy, llevando a cabo la eliminación de las listas de espera en más de 180 mercados y territorios, y agregando soporte para dos idiomas más: el japonés y el coreano.

Para más adelante se espera que llegue a más mercados y alcance a los 40 idiomas soportados.

Sissie Hsiao, vicepresidente y gerente general del Asistente y Bard en Google, señala que:

Como hemos dicho desde el principio, los modelos de lenguaje grande son todavía una tecnología incipiente con limitaciones conocidas. Entonces, a medida que nos expandamos más, continuaremos manteniendo nuestros altos estándares de calidad y matices locales, al tiempo que nos aseguramos de cumplir con nuestros Principios de IA.

Enriqueciendo las respuestas con imágenes

Pero además de comenzar a estar disponible para un mayor número de personas y en algunos idiomas más, Google avanza que Bard será próximamente más visual tanto en sus respuestas como en las indicaciones, para lo que ante cualquier petición que se le indique, además de ofrecer textos, Bard los acompañará con una serie de imágenes complementarias.

Pero Google va más lejos y también se encuentra integrando el «poder» de Google Lens en Bard como:

Digamos que quieres divertirte usando una foto de tus perros. Puedes subirlo y pedirle a Bard que «escriba una leyenda divertida sobre estos dos». Usando Google Lens, Bard analizará la foto, detectará las razas de los perros y redactará algunas leyendas creativas, todo en segundos.

Nuevas funciones para desarrolladores y usuarios en general

Google también ha anunciado que Bard mejorará las capacidades de citación a partir de la próxima semana, de modo que ante cualquier segmento de código o citación de cualquier contenido, los usuarios podrán presionarlo para conocer la fuente original.

Desde hoy está llegando el tema oscuro, para poder trabajar de forma más cómoda en entornos de escasa iluminación, y próximamente tendrá la capacidad de exportar y ejecutar código a través de Replit, comenzando con códigos escritos en Python.

Estas novedades llegan en base a los comentarios de los desarrolladores, pero además, Google dice que Bard cuenta desde hoy con dos acciones de exportación más, permitiendo llevar las respuestas de Bard directamente a Gmail y Documentos.

Más información: Google

 

Google ya no permitirá que uses bloqueadores de anuncios para ver YouTube

No hay nada que sea tan frustrante cuando miras un vídeo en YouTube que la continua publicidad. Los 5, 10 o 30 segundos de publicidad que aparecen más seguidos de lo que nos gustaría se convierten en un dolor de cabeza.

Algunos usuarios optan por usar bloqueadores de anuncios para evitar esta publicidad. Sin embargo, esa solución ya tiene los días contados.

YouTube no permitirá los bloqueadores de anuncios

Si eres un usuario gratuito de YouTube tienes que dar por sentado que pasarás mucho tiempo viendo publicidad. Sin embargo, entre vídeo y vídeo, la cantidad de anuncios que muestra YouTube puede ser agotador.

Un atajo que han encontrado algunos usuarios es usar bloqueadores de anuncios. Es decir, instalan en su navegador web un bloqueador de publicidad y lo activan cuando ingresan a YouTube. No es una situación que el equipo de Google haya desconocido, aunque nunca ha tomado una acción para impedir este comportamiento de los usuarios.

Una situación que podría cambiar en breve. Como han reportado varios usuarios, YouTube interrumpe la navegación cuando detecta que el usuario tiene un bloqueador de anuncios activo. Cuando esto sucede, muestra una ventana emergente mencionando que los bloqueadores de anuncios no están permitidos en YouTube.

Permites los anuncios o te pasas a YouTube Premium

Por otro lado, le recuerda al usuario, de forma amistosa,  que la publicidad es la que permite que YouTube pueda ser usada de forma gratuita por usuarios de todo el mundo. Y luego, la disyuntiva: permites los anuncios en YouTube o pasarse a YouTube Premium.

Es decir, desactivas el bloqueador de anuncios para seguir usando YouTube de forma gratuita, o tendrás que optar por una suscripción para ver vídeos sin publicidad. Por el momento, estos mensajes solo forman parte de una prueba que está realizando el equipo de YouTube para animar a los usuarios a desactivar los bloqueadores de anuncios.

Así que aún esta prohibición no está apareciendo de forma masiva, sino que se está probando de forma aleatoria con algunos usuarios. Sin embargo, deja ver lo que YouTube podría estar planeando para los usuarios no puedan evadir los anuncios.

Así es la nueva Google Pixel Tablet

Desde hace un año, el equipo de  Google fue dando pistas de su Pixel Tablet, y ahora finalmente es oficial.

Con Google Tensor G2 como su punto fuerte, esta tablet combina una serie de características interesantes, que se potencia con el uso de accesorios. Te contamos los detalles.

Si bien la IA fue la protagonista de Google I/O 2023, también tuvimos lanzamientos importantes en hardware. Ya te contamos todo lo que puede ofrecer el primer móvil plegable de Google, y ahora es el turno de Pixel Tablet.

Si bien no se aleja demasiado de las propuestas que ya encontramos en el mercado, la tableta de Google tiene algunas características interesantes a destacar.

Diseño, pantalla y rendimiento de la Google Pixel Tablet

Si nos detenemos en el diseño de la Google Pixel Tablet, no encontraremos grandes sorpresas. Verás que sigue la misma línea minimalista y elegante que los móviles Pixel, con acabado en cerámica y materiales de aluminio.

Por otro lado, la tablet de Google cuenta con una pantalla de IPS-LCD de 11 pulgadas con resolución de 2.560 x 1.600p y 60 Hz de tasa de refresco. Y supuesto, cuenta con procesador Google Tensor G2, que va acompañado de una configuración de 128 GB de almacenamiento interno y 8GB de RAM.

En cuanto a autonomía, puede darte hasta unas 12 horas de reproducción de vídeo. Cuenta con cámaras frontal y trasera, con sensores de 8 megapíxeles cada uno, así como cuatro altavoces estéreos y triple micrófono. Así que estás cubierto para las reuniones de trabajo y las videollamadas familiares.

Y en cuanto a las opciones de conectividad, tenemos Bluetooth 5.0, WiFi 6, USB- C.

Un dock que da superpoderes a la Google Pixel Tablet

Por supuesto, Google no iba a lanzar simplemente una tablet que no aportará algo diferente a lo que podemos encontrar en el mercado. Y si bien no encontramos esta característica diferenciadora en su diseño y hardware, lo consigue con un particular accesorio.

Tampoco es algo revolucionario, pero consigue el efecto sorpresa con el dock Charging Speaker Dock. Tan solo con conectar la tablet a este dock se consigue una dinámica similar a un Nest Hub.

No solo facilitará estar siempre activo en la tablet, sino que también aporta una serie de funciones. Así que está combinación permitirá que puedas darles usos extra a la tablet.

[…] cuando la tableta está en Modo concentrador, se convierte en un útil dispositivo doméstico que puede usar incluso con manos libres. Úselo como un controlador de hogar inteligente,  reproductor de música y entretenimiento, asistente activado por voz o marco de fotos digital.

Precio y disponibilidad de Google Pixel Tablet

El precio de la Google Pixel Tablet es de 679 euros, en su versión de 8/ 128 GB. Pero hay una mala noticia, y es que no estará disponible a nivel mundial, ya que solo llegará a algunos mercados selectos. Esto deja fuera a España y América Latina. Sin embargo, puede que en el futuro esta propuesta cambie.

Un detalle a tener en cuenta es que el dock no forma parte del paquete cuando compras la tablet de Google, así que tendrás que comprarlo de forma independiente. Una inversión extra.

 

Google lanza Studio Bot, un bot de codificación AI para desarrolladores de Android

 

studio bot google

Llega una nueva herramienta que Google acaba de lanzar para los desarrolladores de Android. Se llama Studio Bot y es un bot de codificación AI que ayudará a los desarrolladores a crear aplicaciones mediante la generación de código, la corrección de errores y la respuesta a preguntas sobre Android.

¿Cómo funciona Studio Bot?

studio bot

Studio Bot se basa en Codey, el nuevo modelo de codificación de Google que se deriva de su actualizado modelo de lenguaje de gran tamaño PaLM 2 (LLM). Studio Bot es compatible tanto con los lenguajes de programación Kotlin como Java, y se encuentra directamente en la barra de herramientas de Android Studio. Desde allí, los desarrolladores pueden obtener respuestas rápidas a sus preguntas o incluso hacer que el bot depure una parte de su código.

¿Qué beneficios trae Studio Bot?



Esta herramienta es muy útil para los desarrolladores ya que les ayuda a ahorrar tiempo y esfuerzo en la creación de aplicaciones. Además, el bot les permite aprender mientras trabajan, ya que les da la oportunidad de ver cómo se genera el código. También ayuda a reducir los errores en el código, ya que el bot puede depurar fácilmente el código escrito por el desarrollador.

¿Cómo se asegura Google de la privacidad de los desarrolladores?

Google afirma que los desarrolladores no tienen que compartir su código fuente con Google para utilizar Studio Bot. Sin embargo, la compañía recibirá datos sobre las conversaciones que tengan los desarrolladores con la herramienta. Es importante mencionar que el bot aún está en sus «primeros días», pero Google continuará entrenándolo para mejorar sus respuestas.

¿Qué más ha anunciado Google?

Aparte de Studio Bot, Google también ha anunciado una serie de novedades relacionadas con Chrome, su navegador web. Entre ellas, se encuentra la compatibilidad con Kotlin y Dart en WebAssembly, lo que significa que los desarrolladores que trabajan con Kotlin pueden fácilmente copiar las características de sus aplicaciones de Android y desplegarlas en la web. También han introducido WebGPU como un reemplazo para WebGL, lo que permite a las bibliotecas de Machine Learning funcionar 100 veces más rápido que en JavaScript regular. Además, Google ha estado trabajando para reemplazar las contraseñas con pases de seguridad y ha lanzado cientos de nuevas APIs de Chrome.

Estamos en una época en la que la inteligencia artificial se está volviendo cada vez más importante. Con herramientas como Studio Bot, los desarrolladores pueden acelerar el proceso de codificación y reducir los errores en el código. Al mismo tiempo, Google está trabajando en formas de hacer que la tecnología sea más accesible y segura para todos. A medida que continuamos avanzando en esta era de la inteligencia artificial, es importante tener en cuenta cómo podemos utilizar esta tecnología para mejorar nuestras vidas y hacer que el mundo sea un lugar mejor.

Google introduce nuevas características para identificar imágenes generadas por IA en su buscador

 

google imagenes

En la actualidad, las imágenes juegan un papel muy importante en nuestra vida diaria. Se utilizan para comunicar información, emociones, estados de ánimo, y también para ilustrar artículos periodísticos. Pero con el creciente uso de la inteligencia artificial para generar imágenes, existe el riesgo de que se utilicen para desinformar o incluso engañar al público.

Google es consciente de esta preocupación y ha anunciado dos nuevas características para su buscador que ayudarán a las personas a identificar las imágenes generadas por IA. En este artículo, explicaremos con detalle estas nuevas características.

¿Qué son estas nuevas características?

La primera característica se llama «Sobre esta imagen» y proporciona información detallada sobre la imagen que se está viendo en el buscador. Incluye detalles como cuándo se indexó la imagen por primera vez en Google, dónde apareció por primera vez en línea, y dónde más se ha visto en línea.

La segunda característica es una marca que indica que la imagen es generada por IA. Google incluirá esta marca en las imágenes generadas por sus propias herramientas de IA, y otros creadores y editores también podrán agregar esta marca a sus imágenes.

Lo informan en blog.google

¿Por qué Google ha introducido estas nuevas características?

La introducción de estas nuevas características es parte de los esfuerzos de Google para aumentar la alfabetización visual y ayudar a las personas a identificar rápidamente si una imagen es creíble o no.

Según un estudio de Poynter de 2022, el 62% de las personas creen que encuentran información falsa a diario o semanalmente. Google espera que la introducción de estas nuevas características ayude a abordar este problema.

¿Cómo funcionan estas nuevas características?

Para utilizar la función «Sobre esta imagen», los usuarios deben hacer clic en los tres puntos en una imagen en los resultados de búsqueda de Google Images, buscar con una imagen o captura de pantalla en Google Lens, o deslizar hacia arriba desde dentro de la aplicación de Google cuando se está en una página con una imagen que se quiere conocer más.

Más adelante, los usuarios también podrán acceder a la función haciendo clic derecho o manteniendo presionada una imagen en el navegador web de Google Chrome en dispositivos móviles y de escritorio.

Para agregar la marca que indica que una imagen es generada por IA, los creadores y editores deberán agregar un marcado en el archivo original de la imagen. Esto se puede hacer utilizando herramientas de edición de imágenes que soportan esta función.

¿Por qué es importante esta iniciativa?

Con el creciente uso de la inteligencia artificial, el número de imágenes generadas por IA aumentará. Por lo tanto, es importante tener herramientas y recursos para identificar rápidamente las imágenes generadas por IA y prevenir la difusión de información errónea.

Sin embargo, estas nuevas características no son una solución completa para el problema de las imágenes generadas por IA. Muchas de estas imágenes se utilizarán para desinformar o engañar fuera de las plataformas de Google, y sus creadores no seguirán las reglas. Por lo tanto, todavía es importante para las personas ser críticas y verificar la información antes de creer en ella.

El buscador de Google cambiará completamente, así como el SEO

 

google nuevo buscador

Google ha presentado su nuevo proyecto de búsqueda llamado «Search Generative Experience» (SGE) que utiliza inteligencia artificial generativa para proporcionar a los usuarios más información y contexto en sus búsquedas.

¿Qué es SGE?



SGE es un proyecto experimental de Google que utiliza la inteligencia artificial generativa para ayudar a los usuarios a entender un tema más rápido, descubrir nuevas perspectivas y realizar tareas de manera más fácil.

Por ejemplo, si un usuario pregunta: «¿Cuál es el mejor lugar para viajar con niños menores de 3 años y un perro, Bryce Canyon o Arches?», SGE proporcionará una instantánea de la información clave a considerar, junto con enlaces para profundizar en la búsqueda.

Cómo funciona SGE

La inteligencia artificial generativa de SGE ayuda a los usuarios a navegar en la sobrecarga de información proporcionando una instantánea de la información relevante, incluyendo enlaces para profundizar en la búsqueda. También sugiere preguntas de seguimiento para continuar explorando el tema y ofrece puntos de partida útiles para el contenido web y una variedad de perspectivas que se pueden explorar.

En el caso de las compras, SGE proporciona una instantánea de los factores a considerar y los productos que cumplen con los criterios, así como descripciones de productos que incluyen reseñas, calificaciones, precios e imágenes relevantes. Todo ello basado en el «Google Shopping Graph», la base de datos más completa del mundo de productos en constante cambio.

Limitaciones de SGE

A pesar de que Google ha entrenado los modelos para mantener el alto nivel de calidad de su buscador, reconoce las limitaciones de la inteligencia artificial generativa y los LLMs.

Por lo tanto, se han aplicado ciertos límites y guardrails para restringir el uso de SGE en determinados tipos de consultas, y se ha diseñado un enfoque responsable y deliberado para el desarrollo de esta nueva tecnología de búsqueda.

SGE como experimento en Search Labs

SGE es un experimento que se encuentra en la sección de «Search Labs» de Google, y estará disponible en la aplicación de Google (para Android e iOS) y en Chrome desktop.

Los usuarios pueden registrarse en Search Labs para tener acceso a SGE en las próximas semanas. Google espera recibir comentarios y sugerencias de los usuarios para seguir mejorando esta nueva experiencia de búsqueda.

¿Qué es Search Labs?

Search Labs es un programa en el que los usuarios pueden probar experimentos tempranos y proporcionar comentarios directamente a los equipos que trabajan en ellos. Es una forma en que Google experimenta con nuevas ideas y conceptos para mejorar la experiencia de búsqueda de sus usuarios.

El programa Search Labs tiene como objetivo probar nuevas formas de interactuar con Google Search y descubrir información de manera más fácil y creativa. A través de esta plataforma, Google espera recibir comentarios directos de los usuarios para mejorar su motor de búsqueda.

¿Cómo funciona Search Labs?

Search Labs ofrece experimentos de búsqueda que están disponibles por tiempo limitado. Los usuarios pueden probar estas funciones y proporcionar comentarios directamente a los equipos que trabajan en ellas. Algunas de estas funciones se integrarán eventualmente en Google Search.

El programa se encuentra actualmente en su fase de lanzamiento y está disponible solo para usuarios de EE. UU. en inglés. Sin embargo, Google espera expandir Search Labs a otras regiones y lenguas en el futuro.

¿Qué experimentos están disponibles en Search Labs?

Entre los experimentos disponibles en Search Labs se encuentra el Generador de Experiencias de Búsqueda (Search Generative Experience, SGE), que utiliza inteligencia artificial para proporcionar un resumen de un tema y sugerencias para explorar más.

Otro experimento es Code Tips, que proporciona sugerencias para escribir código de manera más eficiente utilizando modelos de lenguaje avanzados. Además, Add to Sheets permite a los usuarios insertar resultados de búsqueda directamente en una hoja de cálculo y compartirla con amigos.

¿Cómo ayuda Search Labs a mejorar la búsqueda en Google?

El programa Search Labs permite a Google probar nuevas funciones y recopilar comentarios directamente de los usuarios. Estos comentarios ayudan a Google a comprender lo que es más útil para los usuarios y a mejorar la experiencia de búsqueda para todos.

Con el tiempo, algunas de estas funciones se integrarán en Google Search, lo que mejorará la experiencia de búsqueda para todos los usuarios.

¿Qué significa todo esto para el SEO?

La introducción de la inteligencia artificial generativa en la búsqueda en línea es un paso significativo hacia una experiencia de búsqueda más fluida y efectiva.

Con SGE, Google está redefiniendo lo que una experiencia de búsqueda puede ser, eliminando gran parte del trabajo que los usuarios suelen hacer para comprender un tema y buscar la información que necesitan.

Esto podría tener un impacto significativo en la forma en que los usuarios interactúan con los motores de búsqueda y consumen información en línea, así como para los profesionales SEO, por supuesto.

Con esta nueva realidad es posible que las páginas web que antes estaban en los primeros resultados de búsqueda tengan menos tráfico y, como resultado, sufran una disminución en su visibilidad. Por otro lado, las páginas que proporcionan información más completa y útil tendrán más probabilidades de atraer tráfico.

Google presenta un nuevo prototipo de Project Starline más accesible y fácil de usar

proyecto starline

Imagínate que pudieras estar en una reunión o conversación con alguien que está en otra ciudad o país y sentir que están en la misma habitación que tú. Esto es lo que Google quiere hacer posible con Project Starline. En 2021, Google presentó este proyecto que utiliza la inteligencia artificial para crear una imagen en 3D de la persona con la que estás hablando y proyectarla en una pantalla de luz con un efecto de profundidad.

Ahora, Google ha presentado un nuevo prototipo de Project Starline que es más fácil de usar y accesible para más personas. Antes, los prototipos eran grandes y requerían una gran cantidad de hardware, como cámaras especiales y emisores de luz infrarroja. Sin embargo, el nuevo prototipo solo necesita unas pocas cámaras estándar para producir imágenes en 3D de alta calidad.

¿Cómo funciona Project Starline?



Project Starline utiliza la inteligencia artificial para crear un modelo en 3D de la persona con la que estás hablando. Las cámaras capturan imágenes en tiempo real de la persona y el software de IA las procesa para crear una imagen en 3D. Luego, la imagen se proyecta en una pantalla de luz con un efecto de profundidad, lo que crea la ilusión de que la persona está en la misma habitación que tú.

¿Qué beneficios tiene Project Starline?

Según los primeros resultados de los socios que han probado el nuevo prototipo, Project Starline ayuda a construir conexiones personales más fuertes, reduce la fatiga de las reuniones y aumenta la atención. Esto significa que, aunque no estés físicamente en la misma habitación que la persona con la que estás hablando, puedes sentir que estás teniendo una conversación cara a cara.

¿Cómo es el nuevo prototipo de Project Starline?

El nuevo prototipo de Project Starline es mucho más fácil de usar y accesible que los prototipos anteriores. Antes, los prototipos eran grandes y requerían una gran cantidad de hardware. Sin embargo, el nuevo prototipo solo necesita unas pocas cámaras estándar para producir imágenes en 3D de alta calidad.

El nuevo diseño es más parecido a un sistema de videoconferencia tradicional, lo que significa que es más fácil de instalar y usar en una variedad de entornos.

¿Qué piensa Google del futuro de Project Starline?

Google cree que Project Starline tiene el potencial de cambiar la forma en que las personas se comunican y colaboran en el futuro. A medida que más personas trabajan de forma remota y se conectan con personas en diferentes partes del mundo, la tecnología como Project Starline puede ayudar a crear conexiones más fuertes y significativas entre las personas.

Project Starline es una tecnología impresionante que puede ayudar a crear conexiones personales más fuertes en un mundo cada vez más conectado. A medida que más personas trabajan de forma remota, la tecnología como Project Starline puede ayudar a cerrar la brecha entre las personas y hacer que la comunicación sea más humana y significativa.

 

Pixel Fold: El primer teléfono plegable de Google

 

google fold

Google ha anunciado su primer teléfono plegable, el Pixel Fold. Este nuevo dispositivo combina la funcionalidad de los teléfonos Pixel con un diseño plegable que se convierte en una tableta compacta, ofreciendo una experiencia única a sus usuarios.

Está equipado con el nuevo chip Tensor G2 de Google, lo que lo hace más rápido y seguro. Veamos los detalles:

Diseño delgado y duradero



El Pixel Fold, presentado en blog.google tiene un diseño delgado y duradero que se adapta perfectamente a la palma de la mano cuando está cerrado y se puede guardar en el bolsillo. Al abrirlo, el teléfono se transforma en una tableta de 7.6 pulgadas con un perfil más delgado que cualquier otro teléfono plegable en el mercado. Para lograr este diseño plegable, Google ha rediseñado muchos de los componentes de Pixel, desde la cámara hasta la batería, los altavoces y la tecnología háptica.

La bisagra personalizada no solo contribuye a la delgadez, sino que también es la bisagra más resistente del mercado. Por último, el Pixel Fold cuenta con una clasificación IPX8 de resistencia al agua.

Pantallas múltiples para mayor productividad y entretenimiento

El Pixel Fold ofrece una experiencia única gracias a sus pantallas múltiples, tanto interiores como exteriores. Cuando está cerrado, la pantalla exterior permite realizar todas las tareas habituales de un teléfono Pixel, como responder a mensajes, navegar por Chrome o usar las funciones de asistencia de llamadas, como Direct My Call, Call Screen, Hold for Me y Clear Calling.

Cuando está completamente abierto, la pantalla interior se convierte en una tableta que permite disfrutar de muchas de las aplicaciones favoritas de los usuarios en una pantalla más grande. Además, gracias a la barra de tareas, es posible cambiar fácilmente entre aplicaciones o utilizar dos aplicaciones al mismo tiempo en modo de pantalla dividida. También se puede arrastrar y soltar archivos entre aplicaciones, como enviar una foto desde Google Fotos a través de Mensajes y Slides. Y, si se desea disfrutar de contenido sin sostener el teléfono, se puede utilizar el modo de mesa para ver videos o tomar fotos y videos sin un trípode.

Cámara de alta calidad

El Pixel Fold cuenta con muchas de las funciones de cámara que se han vuelto populares en los teléfonos Pixel, como Super Res Zoom, Real Tone, Night Sight y fotografía de retrato, así como los modos profesionales del Pixel 7 Pro, como el video HDR de 10 bits. Además, los usuarios pueden utilizar Magic Eraser y Photo Unblur en Google Fotos para mejorar la calidad de sus fotos.

Con la cámara trasera para selfies, es posible obtener la mejor calidad de imagen en un Pixel hasta la fecha. Los usuarios pueden utilizar la pantalla exterior como visor y la cámara principal de 48 megapíxeles para tomar una excelente selfie. Y, si se desea tomar fotos en grupo, se puede utilizar el modo de mesa para tomar fotos y utilizar un gesto con la palma de la mano para disparar el obturador.

Novedades en Android 14

Google también ha presentado una función innovadora que estará disponible en el Pixel Fold cuando se lance Android 14 más adelante este año: el modo intérprete de pantalla dual, que utilizando tanto la pantalla interior como la exterior para traducir conversaciones en tiempo real. Esta función permitirá tener conversaciones más naturales en diferentes idiomas, sin tener que estar alrededor de una sola pantalla.

Google I/O 2023: Pixel Fold, Pixel Tablet, Android 14 y Google Bard

 

android 14 google pixel fold pixel tablet

Como cada año, Google celebra su evento para desarrolladores, una cita en la que ha aprovechado para mostramos muchas novedades. Aunque llevábamos mucho tiempo conociendo rumores, especificaciones e incluso la propia empresa nos había adelantado el diseño del Google Pixel Fold, uno de los platos fuertes del evento anual celebrado en Mountain View junto con los cambios que se cuelan en Android 14.

Una cita repleta de novedades, algunas que esperábamos desde hace meses y otras que sin duda alguna suponen una sorpresa. Uno de los momentos más ansiados tiene que ver con la llegada del Google Pixel 7a, un smartphone que está llamado a ser uno de los reyes en la gama media como ya lo fue su antecesor, el Google Pixel 6a. Si quieres conocer todo del Pixel 7a, incluyendo las primeras impresiones sobre este smartphone, las tienes ya disponibles en la web, aquí pasamos a contarte todo lo demás del Google I/O 2023.

El Google Pixel Fold hace su debut

Aunque ya son muchos los móviles plegables que podemos comprar en el mercado, la llegada del primer móvil desarrollado por Google con la posibilidad de abrirse y cerrarse es muy importante. Esto significa además que Android 14 y las futuras versiones estarán mucho mejor preparadas para que las aplicaciones u otras muchas herramientas respondan como es debido ante el cambio de formato en la pantalla.

El teléfono que acaba de ser presentado oficialmente en el Google I/O se estrena con una gran pantalla interna de 7,6 pulgadas con tecnología OLED, sumado a una pantalla externa de 5,8 pulgadas. Aunque en el evento llama la atención la gran marca que vemos en el centro de la pantalla de este plegable. En ambos casos contamos con una tasa de refresco de 120 Hz y una densidad de píxeles que alcanza los 408 ppi para la interna, llegando a los 380 ppi en la pantalla externa. Sobre la tecnología de las bisagras y del pliegue Google no ha explicado demasiados detalles, más allá de su durabilidad. Eso sí, no se trata de un móvil pequeño ni ligero, pues el conjunto pesa 283 gramos con unos marcos considerables.

google pixel fold

El interior del smartphone está liderado por el chip Tensor G2 de fabricación propia junto al Titan M2, un chip que se centra en la seguridad. La memoria está formada por dos opciones, la primera de ellas con 12 GB de RAM y 256 GB, además de otra con la misma RAM pero alcanzando los 512 GB de almacenamiento.

Pasando a su conjunto triple de cámaras traseras esperamos una experiencia tan buena como en los Pixel 7, destacando el sensor principal de 48 Mpx con estabilización óptica y un gran campo de visión. Le acompañan un sensor ultra gran angular de 10,8 Mpx y un teleobjetivo idéntico que puede ofrecer un zoom óptico de 5 aumentos. La cámara frontal que nos encontramos con el teléfono cerrado es de 9,5 Mpx, mientras que la anterior algo más reducida, de 8 Mpx.

En lo que respecta al batería promete ser un móvil con una autonomía muy importante, pues según afirma la propia Google, alcanzará las 24 horas sin despeinarse.

El precio de salida para este primer plegable de Google es de 1799 dólares, incluyendo en el pack un Google Pixel Watch de regalo. Durante el evento no se ha confirmado que vaya a llegar a España, por lo que no parece que sea posible conseguirlo, al menos por ahora.

La Google Pixel Tablet llega cargada de funciones

Parece que han tenido que esperar a que Android 14 esté avanzado, para poder mostrarnos esta nueva tablet que ya se mostró en el evento del año pasado, pero que hasta ahora no han terminado de pulir. Uno de los puntos clave de la tablet y más innovadores es la posibilidad de conectarlo a un dock, lo que la convierte en un Nest Hub con altavoces más potentes, aunque sigue siendo inalámbrica siempre que la queramos usar en el sofá o fuera de casa. Su pantalla de 10,95 pulgadas es otro atractivo, con una resolución de 2.560 x 1.600 píxeles, con 500 nits de brillo medio que aseguran buenos resultados en la mayoría de situaciones.

google pixel tablet colores

No tendrá diferencias en su interior con respecto a los smartphones de última generación, ya que de nuevo entra en acción el Google Tensor G2, junto al chip Titan M2 de seguridad. En cuanto a las opciones de memoria, contamos con 8 GB de RAM que se unen a los 128 o 256 GB de almacenamiento, sin la posibilidad de ampliarlo mediante una tarjeta de memoria. Pasando a las cámaras, nos encontramos dos sensores de 8 Mpx, uno para el frontal, enfocado en videollamadas y otra igual en la parte posterior. En conectividad cuenta con WiFi 6 y Chromecast, como si fuera una televisión, aunque no sabemos nada de una versión LTE. El audio es importante para Google, por ello integra 4 altavoces y 3 micrófonos en la propia tablet sin necesidad del dock.

Si queremos comprar la Pixel Tablet, el precio de salida es de 499 dólares en su versión con menos memoria, con el dock de regalo, al menos a modo de lanzamiento. Sin embargo, este nuevo dispositivo no llega por ahora a España de manera oficial.

Android 14 es más que una evolución

El evento ha estado muy centrado en la nueva versión del sistema operativo rey, pero siempre vinculado a la IA y no es para menos. Sin embargo, también hemos visto de refilón Android 14 Beta 2, la segunda versión del software con muchas correcciones. Durante la cita se han ido mostrándonos pinceladas de todo lo que supone el salto con respecto a Android 13, topándonos con algunas funciones muy interesantes:

  • Clonador de apps nativo de Android.
  • Un nuevo menú compartir.
  • Navegación por gestos mejorada con la tecnología predictiva.
  • Herramientas para que no instalemos versiones antiguas de aplicaciones.
  • Funciones para iniciar sesión sin contraseña.
  • Protección avanzada de Memoria para evitar los virus.
  • Llega la resolución Ultra HDR.

Google IO 2023 Android 14

En el evento también se ha hablado de la futura interconexión de las aplicaciones en tablets y smartphones plegables, permitiendo combinar las herramientas. Y la llegada de un sistema dentro de Android, para poder localizar todos los dispositivos rápidamente, al puro estilo de Apple con Fast Pair, pero creado para que funcione en todas las marcas que integran Android. Una función que llegará en verano de 2023 para que podamos usarlo con auriculares, tabletas y más dispositivos. Google Mensajes podrá modificar nuestros mensajes para cambiar el tono y las expresiones.

Además, Google nos ha mostrado una nueva función de personalización mediante wallpapers de dos tipos, una en la que nosotros podemos elegir los emoticonos que queremos usar para darle un estilo propio y otra donde se da movimiento a nuestras propias fotos. Estas novedades llegarán a todos los Google Pixel el próximo mes de junio.

generar imagenes google pixel

Otro aspecto donde se cuela la IA es en los wallpapers, ya que podremos crear nuestros propios diseños en función de una descripción y aplicar el que más nos guste a la pantalla.

Google Bard, así es la IA de Google aplicada en apps

La locura se ha desatado por el desarrollo de la inteligencia artificial y Google no quiere quedarse atrás en la carrera. Los avances que está llevando a cabo sobre Google Bard, no se han quedado fuera del Google I/O 2023 y nos ha mostrado como está actualmente la tecnología, el camino que lleva y lo que puede ofrecer a los usuarios. Uno de los aspectos clave de Bard es que aprenderá de los usuarios, lo que permitirá que avance a pasos agigantados según se vaya utilizando. Se pondrá en funcionamiento de inmediato en 180 países y muy pronto admitirá hasta 40 idiomas.

Uno de los movimientos más importantes tiene que ver con Android, ya que en los Google Pixel en primer lugar se integrarán sus capacidades directamente en diferentes apps como Google Maps y Gmail. Para comenzar nos han mostrado como dentro de los servicios de Google podremos aprovechar la capacidad de generar textos de Google Bard mediante IA, para dar vida a reclamaciones, correos electrónicos y todo lo que podamos imaginarnos.  Esto sin duda alguna es un paso al frente para plantar cara a ChatGPT.

google maps realidad aumentada

La realidad aumentada llega de lleno a Google Maps, adentrándonos en las calles mediante 3D, un avance que puede marcar la diferencia. Por el momento estará disponible en 15 ciudades, aunque se espera que a final de año sean muchos más las localizaciones disponibles. En el caso de la inteligencia artificial, lo más llamativo es que vamos a pedirle a Google Bard la localización de restaurantes cerca de nosotros y lo dará todo de inmediato.

En lo que respecta a Google Fotos nos han presentado Magic Editor, una nueva herramienta que permitirá incluso mover elementos dentro de una foto. Esto nos puede servir para cambiar el lugar donde está una persona dentro de una imagen. También se podrá utilizar la IA para añadir objetos o complementarlos.

google fotos editor evento google

La inteligencia artificial también se integrará en Google Lens para poder generar descripciones de las imágenes y otro tipo de textos, ya que podremos pedirle información incluso procedente de internet.

Otras de sus capacidades son:

  • Generador de textos en Gmail y Google Docs.
  • Generar imágenes.
  • Extensiones para ampliar las funciones.
  • Integración en el buscador para ofrecer soluciones directas con acceso a las fuentes de información.
  • El propio buscador podrá identificar imágenes generadas por IA, diciéndonos de esta manera si es real o no.