msgbartop
Blog de noticias sobre google.
msgbarbottom

17 Ene 18 La Inteligencia Artificial accesible a todas las empresas

Cuando Fei-Fei y yo nos unimos a Google Cloud hace poco más de un año, emprendimos una misión para democratizar la inteligencia artificial (AI). Nuestro objetivo era reducir las barreras de entrada y poner la AI a disposición de la mayor comunidad posible de desarrolladores, investigadores y empresas. 
Nuestro equipo de Google Cloud AI ha realizado grandes progresos para conseguir este objetivo. En 2017, presentamos el servicio de aprendizaje automático (ML) Google Cloud Machine Learning Engine, creado para ayudar a los desarrolladores con experiencia en ML a crear de forma fácil modelos de ML que funcionen con cualquier tipo de datos de cualquier tamaño. Mostramos cómo los servicios modernos de aprendizaje automático, como las API—incluyendo las de Vision, Speech, NLP, Translation y Dialogflow— pueden crearse basándose en modelos entrenados previamente, para llevar las aplicaciones empresariales a una escala sin precedentes. Kaggle, nuestra comunidad de científicos de datos e investigadores de ML, ha crecido a más de 1 millón de miembros. Y hoy, más de 10.000 empresas usan los servicios de Google Cloud AI, incluyendo compañías como Box, Rolls Royce Marine, Kewpie y Ocado
Pero hay mucho más por hacer. En estos momentos, solo algunas empresas en todo el mundo tienen acceso al talento y a los presupuestos necesarios para aprovechar en su totalidad los avances en ML y AI. Y hay un número muy limitado de personas capaces de crear modelos avanzados de aprendizaje automático. Por si fuera poco, si tu compañía es una de las que tiene acceso a ingenieros de ML/AI, aún tienes que gestionar el proceso tan complicado y que requiere una gran cantidad de tiempo necesario para crear tu propio modelo de ML. Aunque Google ha ofrecido modelos de aprendizaje automático previamente entrenados a través de API que realizan tareas específicas, aún necesitamos realizar mucho más trabajo para llevar la AI a todas las personas. 
Para acabar con este problema y hacer la AI accesible a todas las empresas, presentamos el  Cloud AutoML que ayuda a las empresas con una experiencia limitada en ML a empezar a crear sus propios modelos personalizados de alta calidad, aprovechando para ello técnicas avanzadas, como el learning2learn y el transfer learning de Google. Pensamos que el Cloud AutoML va a incrementar la productividad de los expertos en AI, además de impulsar nuevos campos en AI y ayudar a los ingenieros con menos conocimientos a crear unos potentes sistemas de AI con los que solo podrían haber soñado hasta ahora. 
Nuestra primera versión del Cloud AutoML será el AutoML Vision, un servicio que acelera y simplifica la creación de modelos de ML personalizados para reconocimiento de la imagen. Su interfaz de tipo arrastrar y soltar te permite cargar con facilidad imágenes, entrenar y gestionar modelos y, posteriormente, instalar dichos modelos entrenados directamente en Google Cloud. Los primeros resultados del uso de Cloud AutoML Vision para clasificar conjuntos de datos públicos populares como los de ImageNet y CIFAR, nos han mostrado unos resultados más precisos con menos fallos en la clasificación, en comparación con las API genéricas para ML. 
A continuación, proporcionamos más información sobre todo lo que tiene que ofrecer el Cloud AutoML Vision: 
  • Una mayor precisión: El Cloud AutoML Vision se basa en los destacados mecanismos para reconocimiento de la imagen de Google, incluyendo el transfer learning y las tecnologías de búsquedas basadas en arquitectura neuronal . De esta manera, tendrás un modelo más preciso incluso cuando tu empresa tenga una experiencia limitada en aprendizaje automático. 

  • Un más rápido cambio a unos modelos preparados para la producción: Con el Cloud AutoML, puedes crear un modelo sencillo en unos minutos para manejar tu aplicación habilitada por AI. O crear un modelo completo preparado para la producción en tan solo un día. 


  • Fácil de usar: AutoML Vision proporciona una interfaz gráfica del usuario sencilla que te permite especificar los datos, para convertiros en un modelo de alta calidad y personalizado para satisfacer tus necesidades específicas. 
Urban Outfitters busca constantemente nuevos mecanismos para mejorar la experiencia de compra de sus clientes”, afirma Alan Rosenwinkel, científico de datos en URBN. “La creación y el mantenimiento de un conjunto completo de atributos de los productos es esencial para ofrecer a nuestros clientes unas recomendaciones de productos relevantes, unos resultados de búsquedas precisos y unos filtros útiles para los productos. Sin embargo, la incorporación manual de los atributos de productos es una tarea ardua y que precisa una gran cantidad de tiempo. 
Para ocuparnos de ello, nuestro equipo ha evaluado el Cloud AutoML para automatizar el proceso de atribución de productos, mediante el reconocimiento las características específicas de los productos, como, por ejemplo, los patrones de los estampados y los tipos de escotes. Cloud AutoML es una gran solución que puede servir de gran ayuda a nuestros clientes para mejorar las experiencias del usuario para buscar, encontrar y sugerirles productos”. 
Mike White, CTO y vicepresidente primero de Disney Consumer Products and Interactive Media, comenta: “La tecnología de Cloud AutoML nos ayuda a la creación de modelos de visión para incorporar en nuestros productos personales de Disney, categorías de productos y colores. Estas aportaciones se integran en nuestro motor de búsqueda para mejorar el impacto de la experiencia de Guest con unos resultados de búsquedas más relevantes, la agilización de la localización de los productos y la mejora a la hora de recomendar productos en la tienda de Disney”. 
Sophie Maxwell, directora de Conservation Technology en el Zoological Society de Londres, nos indica: “ZSL es una organización benéfica encargada de la conservación de los animales y su hábitat a escala internacional. Un requisito clave para cumplir con sus objetivos es el seguimiento de las poblaciones de fauna silvestre para mejorar los conocimientos sobre su distribución y el impacto que tienen los seres humanos en el mantenimiento de estas especies. Para lograr este objetivo, ZSL ha instalado una serie de cámaras en la selva para capturar imágenes de los animales a su paso, activando los dispositivos mediante el uso de sensores de calor y movimiento. Los millones de imágenes capturadas por estos dispositivos se analizan manualmente, incorporando información sobre las especies como, por ejemplo, la de leones, jirafas, etc., una tarea que precisa una gran cantidad de trabajo y dinero. El departamento especializado de Conservation Technology Unit de ZSL ha colaborado estrechamente con el equipo de CloudML de Google para desarrollar esta interesante tecnología, que ZSL desea utilizar para automatizar el etiquetado de estas imágenes – reduciendo costes, permitiendo un despliegue del sistema a mayor escala y mejorando los conocimientos sobre la conservación de la fauna silvestre en todo el mundo” 
Si estás interesado en probar el Auto ML Vision, puedes solicitarlo a través de este acceso
El AutoML Vision es el resultado de nuestra estrecha colaboración con los equipos de Google Brain y Google AI, y es el primero de varios productos Cloud AutoML en desarrollo. Aunque aún estamos en el inicio de nuestros planes para hacer más accesible la AI, nos hemos inspirado en lo que han podido conseguir más de nuestros 10.000 clientes que ya usan productos de Cloud AI. Esperamos que el lanzamiento del Cloud AutoML sirva de ayuda para que más empresas descubran lo que pueden conseguir con el uso de la AI. 

Publicado por Jia Li, Head of R&D, Cloud AI, and Fei-Fei Li, Chief Scientist, Cloud AI
Referencias 
[1] Learning Transferable Architectures for Scalable Image Recognition, Barret Zoph, Vijay Vasudevan, Jonathon Shlens, and Quoc V. Le. Arxiv, 2017. 
[2] Progressive Neural Architecture Search, Chenxi Liu, Barret Zoph, Jonathon Shlens, Wei Hua, Li-Jia Li, Li Fei-Fei, Alan Yuille, Jonathan Huang, Kevin Murphy, Arxiv, 2017 
[3] Large-Scale Evolution of Image Classifiers, Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Quoc Le, Alex Kurakin. International Conference on Machine Learning, 2017. 
[4] Neural Architecture Search with Reinforcement Learning, Barret Zoph, Quoc V. Le. International Conference on Learning Representations, 2017. 
[5] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning, Christian Szegedy, Sergey Ioffe, Vincent Vanhoucke, and Alex Alemi. AAAI, 2017. 
[6] Bayesian Optimization for a Better Dessert, Benjamin Solnik, Daniel Golovin, Greg Kochanski, John Elliot Karro, Subhodeep Moitra, D. Sculley. NIPS, Workshop on Bayesian Optimization, 2017



Source: Google Oficial

14 Dic 17 El cielo es el límite: cazando planetas con aprendizaje automático

Durante cientos de años hemos mirado las estrellas, registrando sus observaciones y observando algunos patrones. Los planetas fueron algunos de los objetos identificados por los primeros astrónomos. Los griegos los llamaron “planētai” o “vagabundos”, por su movimiento aparentemente irregular por el cielo nocturno. Siglos de observaciones y el desarrollo de teorías nos ayudaron a entender que la Tierra y otros planetas de nuestro sistema solar giran alrededor del Sol (que, además, es también una estrella como muchas otras)

Ahora, con la ayuda de tecnologías como la óptica de los telescopios, los vuelos espaciales, las cámaras digitales y los potentes ordenadores, podemos ampliar nuestro conocimiento más allá de nuestro Sol y detectar planetas que giran alrededor de otras estrellas. El estudio de estos planetas – llamados exoplanetas – nos sirve de ayuda para ocuparnos de algunas de las preguntas más profundas del ser humano sobre el Universo. ¿Hay algo más en el espacio exterior? ¿Existen otros planetas y sistemas solares como el nuestro?

Pese a que la tecnología nos ha ayudado en esta búsqueda, el estudio de los exoplanetas es aún un proceso muy complicado. En comparación con las estrellas que los alojan, los exoplanetas son lugares fríos, pequeños y oscuros, lo que les hace muy difíciles de detectar: como si tratáramos de ver una luciérnaga al lado de un potente proyector…pero a miles de kilómetros de distancia. Sin embargo, con la ayuda del aprendizaje automático recientemente hemos logrado algunos progresos.

Para buscar los exoplanetas, los astrofísicos analizan enormes cantidades de datos de la misión Kepler de la NASA, utilizando software automático y análisis manual. Kepler ha observado unas 200.000 estrellas durante cuatro años, capturando una imagen cada 30 minutos y creando unos 14.000 millones de puntos de datos. ¡Estos 14.000 millones de puntos de datos equivalen a dos cuatrillones de órbitas planetarias posibles! Es una cantidad inmensa de información incluso para ser analizada por los ordenadores más potentes, por lo que el estudio de esta información resulta una labor increíblemente complicada y es algo que precisa una gran cantidad de tiempo. Así es como para agilizar este proceso y hacerlo más efectivo, hemos optado por utilizar el aprendizaje automático.

El brillo medido de una estrella disminuye muy levemente cuando un planeta en órbita bloquea parte de la luz. El telescopio espacial Kepler observó el brillo de 200,000 estrellas durante 4 años para buscar estas señales características causadas por los planetas en tránsito.

El aprendizaje automático es un mecanismo para enseñar a los ordenadores a reconocer patrones y es especialmente útil para procesar grandes cantidades de datos. La idea principal es permitir al ordenador que aprenda de los ejemplos, en vez de que los humanos programen reglas específicas.

Soy un investigador del equipo de IA de Google interesado en los temas del Espacio. Contacté con Andrew, un astrofísico de la Universidad de Texas en Austin, Estados Unidos, para colaborar con él. Juntos, llevamos las técnicas del aprendizaje automático a los cielos y enseñamos al sistema a identificar los planetas que giran alrededor de estrellas lejanas.

Con el empleo de un conjunto de datos de más de 15.000 señales etiquetadas de Kepler, creamos un modelo en TensorFlow para distinguir planetas entre formas que no eran planetas. Para hacer esto, tenía que reconocer patrones causados por planetas reales, versus patrones causados por otros objetos como manchas estelares y estrellas binarias. Cuando probamos nuestro modelo con señales nunca detectadas, identificó correctamente un 96% de las veces las señales que correspondían a planetas y las que no lo eran. ¡Así supimos que funcionaba!

Equipados con nuestro modelo de trabajo, apuntamos a lo más alto, y lo usamos para buscar nuevos planetas con los datos de Kepler. Para ayudarnos a estrechar la búsqueda, decidimos examinar las 670 estrellas que ya conocíamos que albergaban dos o más exoplanetas. Esta tarea nos permitió descubrir dos nuevos planetas: Kepler 80g y Kepler 90i. En especial, podemos destacar que Kepler 90i es el octavo planeta descubierto que gira alrededor de la estrella Kepler 90, convirtiéndolo en el primer sistema solar conocido de ocho planetas fuera del nuestro.

Usamos 15,000 señales Kepler etiquetadas para entrenar nuestro modelo de aprendizaje automático para identificar las señales planetarias. Usamos este modelo para buscar nuevos planetas en datos de 670 estrellas, y descubrimos dos planetas que no habíamos logrado identificar en búsquedas previas.

Algunos datos curiosos sobre nuestro planeta recién descubierto: es un 30% más grande que la Tierra, y tiene una temperatura en la superficie de, aproximadamente, 426°C – definitivamente, no es un buen lugar donde pasar unas vacaciones. Asimismo, tarda 14 días en realizar una órbita completa alrededor de su estrella, lo que significa celebrarías allí tu cumpleaños cada dos semanas.

Kepler 90i es el primer sistema de 8 planetas conocido fuera del nuestro. En este sistema, los planetas orbitan más cerca de su estrella y Kepler 90i orbita una vez cada 14 días. (Ten en cuenta que los tamaños de los planetas y las distancias de las estrellas no están a escala).

El cielo es el límite cuando se trata de las posibilidades que ofrece el aprendizaje automático. Hasta ahora, solo hemos usado nuestro modelo para estudiar 670 estrellas de las 200.000 conocidas, por lo que puede haber una gran cantidad de exoplanetas aún por descubrir en los datos de Kepler. Pensamos que nuevas ideas y técnicas con esta tecnología pueden ayudar a impulsar los descubrimientos intergalácticos en los próximos años. Hacia el infinito y más allá!

14 Dic 17 Nueva versión de la Guía SEO para principiantes

Existe una gran cantidad de recursos disponibles para crear sitios web atractivos. Los propietarios de sitios web suelen preguntarnos por nuestras prácticas recomendadas para adaptar de manera óptima sus sitios a los motores de búsqueda. Antes, los recursos que ofrecíamos a los usuarios que no estaban familiarizados con este tema eran nuestra Guía SEO para principiantes y la Academia para webmasters. Hoy, para seguir ayudando a los webmasters a crear sitios web modernos y adaptados a los motores de búsqueda, anunciamos la publicación de la nueva versión de la Guía SEO para principiantes.
 
En la versión anterior de esta guía, se describen las prácticas recomendadas para que los motores de búsqueda puedan rastrear, indexar y entender más fácilmente el contenido de sitios web. En la Academia para webmasters, por su parte, los webmasters pueden encontrar la información y las herramientas necesarias para crear sitios web que puedan aparecer en la Búsqueda de Google. Dado que ambos recursos comparten parte del contenido y algunos objetivos y, además, no ofrecen toda la información que nos gustaría sobre cómo crear sitios web seguros y fáciles de usar, la Academia para webmasters dejará de estar disponible y retiraremos el archivo PDF de la versión antigua de la Guía SEO para principiantes. 
 
 
La Guía SEO para principiantes actualizada sustituirá tanto a su versión antigua como a la Academia para webmasters. Esta nueva versión renueva el contenido de la anterior y añade secciones que tratan de por qué es necesaria la optimización en buscadores, cómo añadir etiquetas de datos estructurados y cómo diseñar sitios web optimizados para móviles.
Esta nueva guía está disponible a partir de hoy en nueve idiomas (alemán, español, francés, inglés, italiano, japonés, portugués, ruso y turco) y pronto se publicará en 16 idiomas más.
Consulta la nueva Guía SEO para principiantes y danos tu opinión. 
Si tienes alguna pregunta, no dudes en formularla en nuestros foros de ayuda para webmasters.
 
<!– @page { margin: 0.79in } p { margin-bottom: 0.1in; direction: ltr; font-size: 12pt; line-height: 120%; text-align: left; widows: 2; orphans: 2 } a:link { so-language: zxx } –>
Escrito por Abhas Tripathi y publicado por Joan Ortiz, equipo de Calidad de Búsqueda.

<!– @page { margin: 0.79in } p { margin-bottom: 0.1in; direction: ltr; font-size: 12pt; line-height: 120%; text-align: left; widows: 2; orphans: 2 } a:link { so-language: zxx } –> <!– @page { margin: 0.79in } p { margin-bottom: 0.1in; direction: ltr; font-size: 12pt; line-height: 120%; text-align: left; widows: 2; orphans: 2 } a:link { so-language: zxx } –>


Source: Google Webmasters

13 Dic 17 El Asistente de Google llega a más teléfonos Android

A principios de este año llevamos el Asistente a los smartphones equipados con Android 8.0 Oreo, Android 7.0 Nougat y Android 6.0 Marshmallow mediante Google Play Services. Hoy, añadimos el Android 5.0 Lollipop, para que más usuarios puedan disfrutar de la ayuda que proporciona el Asistente de Google.

El Asistente de Google en Android 5.0 Lollipop comenzó a implementarse en su idioma nativo en Italia, Japón, Alemania, Brasil y Corea. También está disponible para usuarios con el idioma establecido en inglés en los EE. UU., El Reino Unido, la India, Australia, Canadá y Singapur, así como también en español en los EE. UU., México y España.

Más del 25% de los dispositivos Android a nivel global hoy operan bajo Lollipop por lo que, a partir de hoy, muchos más usuarios tendrán la posibilidad de probar por primera vez el Asistente. Y tú ¿qué es lo primero que quieres preguntar?
 
<!– INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>
Source: Google Oficial

13 Dic 17 DNI: 20 millones de euros en la cuarta ronda de financiación

En octubre de 2015, dentro de la Digital News Initiative (DNI), anunciamos un fondo de 150 millones de euros para los próximos tres años con el objetivo de financiar proyectos de innovación periodística.

Hoy damos a conocer los receptores de la cuarta ronda de financiación, un total de102 proyectos de 26 países europeos a los que se van a entregar 20.428.091 euros para apoyar sus iniciativas de innovación en el sector de las noticias. Esto hace que el total de financiación ofrecido hasta la fecha alcance los 94 millones de euros.

En esta cuarta ronda, de los 102 proyectos financiados, 47 son prototipos (en su primera etapa y que requieren hasta 50.000 euros de financiación), 33 son de tamaño medio (que requieren hasta 300.000 euros de financiación) y 22 son grandes proyectos (que precisan hasta 1 millón de euros financiación).

 

En la última ronda, que tuvo lugar el pasado mes de julio, observamos un gran incremento del interés hacia proyectos de comprobación de datos. Esta tendencia continúa en esta nueva ronda, especialmente en la categoría de prototipos. En las categorías de proyectos de tipo medio y grandes animamos en la ronda pasada a los participantes a centrarse en la monetización, lo que ha generado un incremento en el número de iniciativas de este tipo con el objetivo de mejorar el suministro de contenidos y aumentar el número de socios lectores.

En general, un 21% de los proyectos elegidos se centran en la creación de nuevos modelos de negocio, un 13% en la mejora del descubrimiento de contenidos con el uso de personalización a gran escala. Aproximadamente un 37% de los proyectos seleccionados son colaboraciones entre organizaciones con objetivos similares. Otros proyectos incluyen trabajos para medición de analíticas, desarrollo de audiencias y nuevas oportunidades publicitarias.

A continuación, detallamos los ocho proyectos financiados en esta ronda en España

Datadista (prototipo – 50.000 euros)
El proyecto “Automated follow-up stories” consiste en una plataforma para periodistas con el objetivo de mejorar y facilitar el proceso de actualización de las informaciones que han publicado y que han podido variar con el tiempo. Esta plataforma contará con una tecnología que de manera automática actualizará datos y los relacionará con historias ya publicadas, fuentes de información, etc. De esta manera el periodista no tendrá que pasar por el mismo proceso múltiples veces.
Politibot Innovación SL (prototipo – 50.000 euros)
El proyecto aspira a crear una nueva herramienta que permita elaborar series periodísticas en aplicaciones de mensajería como Telegram o Facebook Messenger. Esas series tendrán varios episodios y se construirán en torno a conversaciones que incluirán audios, vídeos e información a la que sólo puedas acceder después de compartir tu ubicación. La nueva herramienta integrará plataformas como Stripe y Patreon de manera que los usuarios puedan apoyar a los creadores de cada serie.
Prodigioso Volcán (prototipo – 50.000 euros)
La propuesta se centra en un generador de gráficos a través de un MRC (Machine Reading Comprehension System). La experiencia se desarrollará en base a la comprensión del lenguaje natural de manera que analizará noticias económicas (como el desempleo o el crecimiento económico) en texto y será capaz de devolver información gráfica.

El León de El Español S.A. (proyecto mediano 101.952 euros)
Taglicious quiere ser un proyecto que se centra en generar vídeos de un minuto de duración de cualquier tipo de temática. Los periodistas muchas veces no disponen de tiempo para crear estas píldoras audiovisuales de manera que esta tecnología realizará el trabajo por ellos.

Grupo Zeta (proyecto mediano 160.000 euros)
El proyecto de Grupo Zeta tiene como objetivo crear una herramienta para monetizar contenido hiperlocal para barrios concretos y notorios de grandes ciudades, targeteando negocios, anunciantes, profesionales o productos y servicios para los que dichas áreas sean relevantes. Así generará un ecosistema de medios de comunicación sociales y segmentados por áreas y cuyo contenido será relevante tanto para lectores como para anunciantes que busquen estos segmentos de audiencias. La plataforma global será capaz tanto de generar contenido de calidad para usuarios afines a los perfiles de cada uno de los barrios como de ofrecer una solución tecnológica completa de márketing y comunicación para clientes para rentabilizarlo.
Grupo PRISA (proyecto mediano 229.950 euros)
El proyecto SEE (Safety Experience Engine) quiere ofrecer una plataforma de certificación de contenidos de calidad y campañas publicitarias seguras que trabajen sincronizados, para poder presentar entornos seguros de consumo y visibilidad a lectores y anunciantes.

Unidad Editorial (proyecto mediano 290.500 euros)
A través del uso de la Inteligencia Artificial quieren entender de qué manera el contenido que realizan y cómo lo realizan genera un impacto en el usuario, crea valor y puede ser monetizado.
Con una indexación a tiempo real de las noticias que se generan podrán más fácilmente optimizar la ubicación de publicidad basada en contenido al tiempo que le ofrece al periodista datos y herramientas para conocer el nivel de conexión que dicha información está teniendo con el usuario.



Actividades Digital Media – LaVanguardia.com (proyecto grande 576.997 euros)
El proyecto de Smart Pages es un sistema que busca personalizar la experiencia de usuario, en tiempo real, en función del consumo del lector. Los editores históricamente se han centrado en personalizar los contenidos pero queda pendiente trabajar en la experiencia de usuario. Con este proyecto se personalizará la usabilidad y el contexto en que se muestra la información con el fin de incrmentar el rendimiento publicitario, la métricas de calidad (tiempo de lectura, páginas vistas por usuario) y ofrecer funciones específicas, como por ejemplo ofertas de suscripción a usuarios específicos.


El siguiente periodo para la presentación de solicitudes se abrirá en marzo de 2018.  Para tener más información y conocer otros proyectos que han recibido financiación en esta ronda, accede a: https://digitalnewsinitiative.com/dni-projects/.


Source: Google Oficial

13 Dic 17 2017: El Año en Búsquedas

Se acerca el fin de año y es momento del ya tradicional Año en Búsquedas. Tal como hacemos todos los años, analizamos los datos de Google Tendencias para ver qué fue lo que hemos buscado. Lo que nos ha sorprendido e inspirado. 2017 fue el año en que nos preguntamos el ‘cómo’ de muchas cosas, desde cómo se inician incendios hasta cómo hacer una pancarta de protesta. De hecho, todas las búsquedas sobre “cómo” que veis en el vídeo fueron buscadas hasta 10 veces más que en años anteriores. Estas preguntas demuestran el deseo que tenemos por entender lo que nos pasa, por ayudarnos mutuamente, y por llevar el mundo hacia adelante.

Muchas de las preguntas se centraron en las tragedias y desastres que nos afectaron. Huracanes en el Caribe y Estados Unidos. El terremoto en México. El hambre que azotó Somalia y el traslado de los refugiados de Rohingya. En estos momentos como en otros nuestro sentido colectivo de humanidad brilló más que nunca al buscar “cómo ayudar”. 

También buscamos cómo servir a nuestras comunidades: desde cómo convertirse en policía, paramédico o bombero hasta cómo ser trabajador social, activista y otros tipos de trabajo comunitario. Porque no sólo hemos querido ayudar, hemos querido tomar acción.
Desde luego las búsquedas no sólo estuvieron relacionadas con eventos de este tipo: también son una muestra de lo que hemos disfrutado y celebrado alrededor del mundo. “Despacito” os hizo bailar…y también buscar qué significaba. Cuando se trata de vocabulario, hemos buscado términos como “tfw” o “ofc”. Y también hubo slime: hemos buscado cómo hacer slime esponjoso, elástico y pegajoso entre otras clases de slime. Y claro, luego buscamos cómo limpiar el slime de la alfombra, del pelo y de la ropa! 

Estos fueron los términos que marcaron tendencia en 2017 a nivel global:

  1. Hurricane Irma
  2. iPhone 8
  3. iPhone X
  4. Matt Lauer 
  5. Meghan Markle 
  6. 13 Reasons Why 
  7. Tom Petty 
  8. Fidget Spinner 
  9. Chester Bennington 
  10. India National Cricket Team 


¿Y qué buscamos en España? 




Los eventos que marcaron la agenda del año también se vieron reflejados en búsquedas. “Cataluña” fue el término que más creció en 2017, seguido por “atentado en Barcelona”. Hemos dicho hasta siempre a “Bimba Bosé”, “Ángel Nieto” y “Carme Chacón”. También hubo momentos para divertirnos, hemos cantado y bailado al son de “Despacito” y buscado acerca de “Eurovisión” y “HBO”: 

  1. Cataluña 
  2. Atentado Barcelona 
  3. Bimba Bosé 
  4. Puigdemont 
  5. Ángel Nieto 
  6. Eurovisión 
  7. HBO 
  8. Carme Chacon 
  9. iPhone 8 
  10. Despacito 

Para conocer los términos que marcaron tendencia en 2017 por categorías y países, visita www.google.es/2017
<!– INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>


Source: Google Oficial

11 Dic 17 Más razones para querer al Pixel

Cuando inviertes en un smartphone, esperas que te dure un cierto tiempo y que no se quede anticuado cuando salga el modelo siguiente. Nosotros también lo esperamos y, por eso, incorporamos constantemente nuevas experiencias a los teléfonos Pixel, para asegurarnos que estos dispositivos mejoran con el tiempo, y no al contrario. A continuación, te contamos algunas novedades: 

1. Diviértete y desarrolla tu creatividad con los stickers de realidad aumentada
El Pixel 2 tiene la cámara para smartphone mejor valorada del mundo, y te permite hacer muchas más cosas, además de capturar magníficas fotos y vídeos. Esta semana, incorporamos al Pixel 2 los stickers de realidad aumentada, para que añadas personajes virtuales y divertidos emojis directamente a tus fotos y vídeos, dando vida a tus historias favoritas.

También puedes compartir protagonismo con los personajes de “Star Wars: El Último Jedi” – como BB-8-, o jugar con Eleven, el Demogorgon y tus otros personajes favoritos de “Stranger Things” de Netflix, usar stickers de Foodmoji y 3D Text cuando tengas hambre o grabar un vídeo de tu fiesta de Nochevieja con globos y champán en realidad virtual.

¡Es muy fácil! Solo necesitas abrir la aplicación de la cámara, acceder al modo AR Stickers, elegir un paquete de stickers y ponerlos en la escena que quieres utilizar. Puedes moverlos, redimensionarlos y girarlos, además de hacer que interactúen con otros personajes en la escena. El resultado final podrás compartirlo fácil y rápidamente con tus amigos en las redes sociales. Los AR Stickers estarán disponibles durante los próximos días en todos los teléfonos Pixel que tengan instalada la versión Android 8.1 Oreo. ¡En breve lanzaremos nuevos paquetes de AR Stickers y los iremos actualizando con frecuencia así que te recomendamos que te mantengas atento!


2. Aprovecha las prestaciones de la última versión de Oreo 

Recientemente lanzamos el sistema operativo Android Oreo 8.1, que agiliza y simplifica la realización de tareas en tu Pixel. La función SmartSelect reconoce el texto cuando presionas unos segundos sobre la pantalla, destacando las palabras más importantes, para sugerir posteriormente un siguiente paso lógico mediante el uso de una aplicación recomendada como, por ejemplo, llevarte a Maps cuando copias una dirección. Esta prestación utiliza la tecnología de aprendizaje automático de Google y puede reconocer direcciones, números de teléfono, direcciones de correo electrónico, etc. Otra prestación útil en Oreo 8.1 para los usuarios de Pixel es Wi-Fi Speed Labels, que te permite averiguar la velocidad de las redes más cercanas.

Tu Pixel va a ir mejorando con el tiempo. Mantente atento a las nuevas experiencias que te ofrece la cámara y los paquetes de AR stickers y muchas más prestaciones.


Source: Google Oficial

07 Dic 17 Mejorando la mensajería en Latinoamérica con Telefónica, América Móvil, AT&T México, Oi

Uno de los aspectos más importantes de la mensajería RCS es la capacidad para mejorar la experiencia en mensajería a gran escala para todos los usuarios, independientemente de la red que utilicen, el país donde se encuentren o el dispositivo que usen.

Hemos colaborado con operadoras a nivel mundial, con fabricantes de dispositivos y con el GSMA para proporcionar mensajería RCSa las personas en toda Europa, Norteamérica y Asia durante el año pasado, ofreciendo a las operadoras la posibilidad de proporcionar una experiencia más completa de mensajería a los usuarios de smartphones.

Hoy anunciamos nuestra colaboración con las más importantes operadoras del mundo (TelefónicaAmérica Móvil, AT&T México y Oi) para proporcionar mensajería RCS a las personas de Latinoamérica. En colaboración con estas compañías, vamos a instalar mensajería RSC en los dispositivos de más de dos tercios de todos los abonados móviles en Latinoamerica.

La mensajería RCS permite a los abonados acceder a todas las prestaciones de una experiencia de mensajería moderna como la posibilidad de mantener conversaciones en grupo, ver indicadores de escritura y confirmaciones de lectura, compartir fotos y vídeos en alta resolución, etc. Estas prestaciones se van a encontrar disponibles directamente a través de los servicios de mensajería que proporcionen las operadoras a través de Mensajes Android .

El servicio va a ser proporcionado por Jibe RCS Cloud de Google y podrá ser utilizado con diferentes redes a través del Jibe RCS Hub. Además de conectar a los abonados de Telefónica, América Móvil, AT&T México y Oi también conectará a los abonados con otras redes en el Jibe RCS Hub, como Sprint y Rogers. De esta forma, un abonado de Telcel en Ciudad de México, por ejemplo, podría mantener una conversación en grupo a través de RCS con un abonado de Movistar en Ciudad de México y con un abonado de Sprint en EE.UU.

   

A medida que se despliegue el servicio de mensajería RCS, los usuarios que ya tengan la aplicación de Mensajes Android en sus teléfonos tendrán acceso automáticamente a los servicios RCS mediante una actualización de la aplicación. Gracias a la actualización de Mensajes Android, los abonados siempre podrán disfrutar de las últimas prestaciones de los servicios RSC disponibles.

Los usuarios que aún no tengan la app pueden instalarla a través de Google Play. La mensajería RCS también mejora la experiencia de la mensajería empresarial que en estos momentos ofrece la tecnología SMS, ya que permite a las marcas enviar mensajes más interactivos.

Cuando se lance Telefónica, América Móvil, AT&T México y Oi podrán ofrecer a sus abonados servicios de mensajería más completos de aquellas empresas que más les interesan, por ejemplo: una compañía aérea podrá suministrar una experiencia de facturación completa online, con billetes de embarque y mapas de la terminal del aeropuerto y, todo ello, directamente dentro de la misma experiencia de mensajería.

Asimismo, los abonados podrán conversar con sus operadoras sobre las opciones de mejoras disponibles para sus teléfonos o para adquirir un nuevo paquete de datos.

Además de Latinoamérica, este acuerdo con América Móvil y Telefónica también permitirá la posibilidad de lanzar servicios de mensajería RCS en los mercados europeos, uniéndose a una red cada vez mayor de operadoras móviles que ofrecen servicios RCS en Europa, incluyendo Deutsche Telekom, Orange, Telenor y Vodafone. El servicio RCS va a comenzar a ofrecerse a los abonados de América Móvil, AT&T México, Oi y Telefónica a lo largo de los próximos meses.
<!– INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>
Source: Google Oficial

06 Dic 17 #YouTube Rewind: celebramos lo que has visto, lo que has compartido y lo que has creado en 2017

#YouTubeRewind está de vuelta. Este año nos has dado tus mejores movimientos de reggaeton, has sido testigo de un eclipse y te has enamorado de una jirafa embarazada. Hubieron momentos difíciles también, en los que el sentido comunidad e unidad se sintieron más importantes que nunca.

Nuestro mashup anual reunió a más talento que nunca — cerca de 300 creadores, estrellas virales, músicos e invitados especiales — de más de 20 países y juntos hicieron una mirada retrospectiva sobre lo más grande, lo más curioso y hasta lo más pegajoso, entre otras tendencias que marcaron la cultura popular de este año. Y sí, también hubieron spinners, claro.

Hoy también estamos revelando las principales tendencias en vídeos musicales y no musicales de 2017 de acuerdo a tiempo de visualización, cantidad de veces que fue compartido, comentado y gustado, entre otros factores. Algunas caras familiares están de regreso (Dude Perfect, Bad Lip Reading, James Corden), y algunos talentos increíbles en coreografía, animación y actuaciones en directo se suman a ellos. La lista de este año representa una sorprendente diversidad y creatividad, que se comparte cada día en YouTube en alrededor del mundo.

De forma conjunta, la lista de los 10 vídeos que marcaron tendencia suman 630 millones de visualizaciones y los espectadores pasaron más de 40 millones de horas viendo ese contenido. Van desde formatos de entretenimiento tradicional así como nuevas e innovadoras voces.

  1. Until We Will Become Dust – Oyster Masked (ตราบธุลีดิน – หน้ากากหอยนางรม) | THE MASK SINGER 2 
  2. ED SHEERAN – Shape Of You | Kyle Hanagami Choreography 
  3. Ping Pong Trick Shots 3 | Dude Perfect 
  4. Darci Lynne: 12-Year-Old Singing Ventriloquist Gets Golden Buzzer – America’s Got Talent 2017 
  5. Ed Sheeran Carpool Karaoke 
  6. Lady Gaga’s FULL Pepsi Zero Sugar Super Bowl LI Halftime Show | NFL 
  7. “INAUGURATION DAY” — A Bad Lip Reading of Donald Trump’s Inauguration
  8. history of the entire world, i guess
  9. In a Heartbeat Animated Short Film 
  10. Children interrupt BBC News interview – BBC News

2017 vió también romper nuevos récords en la música con el hit de Luis Fonsi y Daddy Yankee, “Despacito”, que no sólo es el número 1 en el top 10 de vídeos sino que también representa el vídeo más visto en la historia de YouTube. La lista de este año es verdaderamente global, con artistas de Puerto Rico, Colombia, Francia, España, Cuba, Estados Unidos y Reino Unido. Este año, 6 de los 10 vídeos son de artistas latinos a diferencia del año pasado, donde sólo figuraba uno.

  1. Luis Fonsi – Despacito ft. Daddy Yankee 
  2. Ed Sheeran – Shape of You [Official Video] 
  3. J Balvin, Willy William – Mi Gente (Official Video) 
  4. Maluma – Felices los 4 (Official Video) 
  5. Bruno Mars – That’s What I Like [Official Video] 
  6. Chris Jeday – Ahora Dice (Official Video) ft. J. Balvin, Ozuna, Arcángel 
  7. 05. El Amante – Nicky Jam (Video Oficial) (Álbum Fénix) 
  8. Jason Derulo – Swalla (feat. Nicki Minaj & Ty Dolla $ign) (Official Music Video) 
  9. DJ Khaled – I’m the One ft. Justin Bieber, Quavo, Chance the Rapper, Lil Wayne 
  10. Enrique Iglesias – SUBEME LA RADIO (Official Video) ft. Descemer Bueno, Zion & Lennox

Rewind en España

Humor, vídeos infantiles y vídeo blogs coinciden en la lista del top 10 de los vídeos que marcaron tendencia demostrando una vez más la diversidad de contenido que los espectadores españoles disfrutan en YouTube:

  1. Luis Fonsi – Despacito (Parodia) 20 voces famosas 
  2. Los Morancos (Parodia) Luis Fonsi – Despacito ft. Daddy Yankee 
  3. EL REGALO MALDITO DE YOUTUBE 
  4. LA VACA LECHERA y Más Canciones. Familia Telerin. Colección Canciones Infantiles. 
  5. EL MEJOR TAG DEL TRAP | @paulagonu
  6. Cuidamos de 3 Adorables Hámsters 
  7. Manel Navarro – Do It For Your Lover (Spain) LIVE at the 2017 Eurovision Song Contest 
  8. He perdido el juicio de Argos Y OS CUENTO TODA LA VERDAD. 
  9. Arturo Valls imita a Pikotaro – Tu Cara Me Suena 
  10. GRACIAS A TI” | ESPECIAL 4 MILLONES | ElMele ft TheGrefg

Y, como era de esperar, la música latina domina una vez más el ránking de los vídeos musicales en el país:

  1. Luis Fonsi – Despacito ft. Daddy Yankee 
  2. Enrique Iglesias – SUBEME LA RADIO (Official Video) ft. Descemer Bueno, Zion & Lennox
  3. Maluma – Felices los 4 (Official Video) 
  4. J Balvin, Willy William – Mi Gente (Official Video) 
  5. Ed Sheeran – Shape of You [Official Video] 
  6. Shakira – Me Enamoré (Official Video) 
  7. Becky G – Mayores (Official Video) ft. Bad Bunny 
  8. 05. El Amante – Nicky Jam (Video Oficial) (Álbum Fénix) 
  9. Chris Jeday – Ahora Dice (Official Video) ft. J. Balvin, Ozuna, Arcángel 
  10. Una Lady Como Tú – MTZ Manuel Turizo | Video Oficial

    Visita el canal de YouTube Rewind para saber más y sigue la conversación en #YouTubeRewind.
    <!– INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>


    Source: Google Oficial

    04 Dic 17 Renderizar páginas de rastreo con AJAX


    El esquema de rastreo con AJAX se diseñó con el objetivo de que el robot de Google pudiera acceder a las páginas web basadas en JavaScript. Como hemos anunciado anteriormente, tenemos previsto desactivarlo. Con el tiempo, los ingenieros de Google han mejorado de forma significativa cómo se renderiza JavaScript para que el robot de Google pueda rastrearlo. Gracias a estos avances, a partir del segundo trimestre del 2018 Google se encargará de renderizar estas páginas, en lugar de que tengan que hacerlo los sitios web. En resumen, dejaremos de usar el esquema de rastreo con AJAX.
    El esquema de rastreo con AJAX admite páginas que contienen “#!” en la URL o bien una metaetiqueta “fragment” y, a continuación, los rastrea incluyendo “?_escaped_fragment_=” en la URL. Esa versión con caracteres de escape, creada por el sitio web, tiene que ser una versión completa o equivalente de la página.
    Con este cambio, el robot de Google renderizará la URL que contiene #! directamente, por lo que no será necesario que el propietario del sitio web proporcione una versión renderizada de la página. Estas URL se seguirán incluyendo en los resultados de búsqueda.
    Esperamos que la mayoría de los sitios web que se rastrean con AJAX no experimenten cambios importantes con esta actualización. Los webmasters pueden comprobar sus páginas siguiendo las instrucciones a continuación. Enviaremos notificaciones a los sitios web que detectemos que pueden tener problemas.
    Si tu sitio web usa URLs que contienen #! o metaetiquetas “fragment”, te recomendamos que hagas lo siguiente:
    ● Verifica la propiedad del sitio web en Google Search Console para acceder a sus herramientas y para que Google te pueda enviar notificaciones sobre los problemas que encuentre.

    ● Haz pruebas con la herramienta Explorar como Google de Search Console. Compara los resultados de la URL que contiene #! y la URL con caracteres de escape para ver las diferencias. Repite este proceso con cualquier parte del sitio web que sea notablemente distinta. Consulta nuestra documentación para desarrolladores para obtener más información sobre las API admitidas y, si es necesario, consulta nuestra guía de depuración.

    ● Con la función para inspeccionar elementos de Chrome, comprueba que los enlaces utilizan elementos HTML <a> e incluyen rel=nofollow donde corresponde (por ejemplo, en contenido generado por usuarios).

    ● Con la función para inspeccionar elementos de Chrome, comprueba el título de la página y la metaetiqueta “description”, si hay metaetiquetas “robot” y otros metadatos. Comprueba también que los datos estructurados estén disponibles en la página renderizada.

    ● Si el contenido debe indexarse en la búsqueda, el contenido creado con Flash, Silverlight u otras tecnologías basadas en complementos debe convertirse a JavaScript o HTML “normal”.
    Esperamos que este cambio facilite el proceso para rastrear tu sitio web y evite en la medida de lo posible que tengas que renderizar páginas. Si tienes cualquier pregunta o comentario, no dudes en consultar nuestros foros de ayuda para webmasters o unirte a nuestro grupo de trabajo de sitios web de JavaScript.
    Escrito por John Mueller, Google Suiza, publicado por Joan Ortiz, equipo de calidad de búsqueda.


    Source: Google Webmasters