Categories
SEO

Los documentos de investigación pueden mostrar lo que es Google Mum

El modelo unificado de Google Multitask (MMA) es una nueva tecnología para responder preguntas complejas que no tienen respuestas directas. Google ha publicado trabajos de investigación que pueden ofrecer pistas de lo que es la mamá AI y cómo funciona.

Mamá probablemente se compone de múltiples innovaciones. Por ejemplo, el Documento de Investigación de Google, Transformadores de Hypergrid: Hacia un modelo único para múltiples tareas describe un nuevo estado de la técnica en el aprendizaje multitarea que podría ser parte de MMA.

Si bien este artículo se enfoca en dos documentos que son particularmente interesantes, eso no significa implicar que estas son las únicas dos tecnologías que pueden estar subyacentes en el modelo unificado multitarea de Google (madre).

Google algoritmos descritos en los documentos de investigación y las patentes

Google generalmente not Confirme si los algoritmos descritos en los documentos de investigación o las patentes están en uso.

Google no ha confirmado cuál es la tecnología Multitask Unificate Unified Model (MMA).

Papeles de investigación modelo multitarea unificada

A veces, como fue el caso con coincidencia neural

, no hay documentos de investigación ni patentes que usen explícitamente el nombre de la tecnología. Es como si Google inventara una marca descriptiva para un grupo de algoritmos que trabajaban juntos.

AnunciCementContinue Lectura a continuación

Este es algo el caso de Multitask Unified Model (MMA). No hay patentes ni trabajos de investigación con la marca MUM exactamente. Pero …

Hay documentos de investigación que discuten problemas similares que mamá se resuelve utilizando soluciones de modelos multitarea y unificada.

ANTECEDENTES SOBRE EL PROBLEMA QUE MUM SE SUELZA

FORMA DE PREGUNTA LARGA DE PREGUNTA DE PROGRAMA ES UNA COMPLETA DESCRIPCIÓN DE PREVÍCILES DE BÚSQUEDA QUE NO SE PUEDE CONSIGEN CON UN ENLACE O SNIPPET. La respuesta requiere párrafos de información que contenga múltiples subtemas.

El anuncio de la madre de Google describió la complejidad de ciertas preguntas con un ejemplo de un buscador que quiere saber cómo prepararse para el monte Fuji de Senderismo en el otoño.

Este es el ejemplo de Google de una consulta de búsqueda compleja:

“Hoy en día, Google podría ayudarlo con esto, pero tomaría muchas búsquedas consideradas cuidadosamente, tendrías que Búsqueda de la elevación de cada montaña, la temperatura promedio en la caída, la dificultad de los senderos de senderismo, el equipo adecuado para usar, y más “.

Aquí hay un ejemplo de un LONG Formulario Pregunta:

AnuncioContinue Lectura a continuación

“¿Cuáles son las diferencias entre los cuerpos de agua como los lagos, los ríos y los océanos?”

La pregunta anterior requiere múltiples párrafos para discutir las cualidades de los lagos, ríos y mares, más una comparación entre cada cuerpo de agua entre sí.

Aquí hay un ejemplo de la complejidad de la respuesta:

Un lago generalmente se conoce como todavía el agua porque no fluye. El río está fluyendo. En general, un lago y un río son generalmente de agua dulce. Pero un río y un lago a veces pueden ser salsosos (salados). El océano puede ser millas profundas. .

Respondiendo una pregunta de forma larga requiere una respuesta compleja compuesta por múltiples pasos, como el ejemplo de Google compartido acerca de preguntar cómo prepararse para caminar al Monte Fuji en THE otoño.

El anuncio de mamá de Google no mencionó la respuesta de la forma larga, pero el problema de la madre resuelve es exactamente eso. ( Cita: El documento de investigación de Google revela un Deficiencia en la búsqueda

).

Cambio en la respuesta de las preguntas

En mayo de 2021, un investigador de Google llamado Donald Metzler publicó un documento que presentó el caso de que los motores de búsqueda responden a las preguntas. Para tomar una nueva dirección para dar respuestas a preguntas complejas.

El documento declaró que el método actual de recuperación de información que consiste en las páginas web de indexación y el clasificación es inadecuado para responder a las consultas de búsqueda complejas. El documento tiene derecho,

Retwinking Search: Hacer expertos fuera de los diletantes

(

PDF

) Un diletante es alguien que tiene un conocimiento superficial de algo, como un aficionado y no un experto.

El papel posiciona al estado de los motores de búsqueda de hoy:

“Los sistemas de vanguardia de hoy a menudo se basan en una combinación de … y Semántica … Recuperación para generar un conjunto inicial de candidatos.

Este conjunto de candidatos se pasa típicamente. en una o más etapas de modelos de reorganización, que tienen muchas probabilidades de ser modelos de aprendizaje a nivel a rango neuronales.

Como se mencionó anteriormente, el paradigma de rango de posiciones de índice-recupere y luego ha resistido el Prueba de tiempo y no es de extrañar que los enfoques avanzados de aprendizaje automático y basado en la PNL sean una parte integral de las componentes de indexación, recuperación y clasificación de los sistemas modernos.”

Recuperación de la información basada en modelo

El nuevo sistema que los expertos que hacen que los expertos de diletantes

se describen el documento de investigación es uno que se aleja con el índice de recuperación de índice -Ranquimiento de la parte del algoritmo.

AnuncioContinue Lectura a continuación Esta sección del documento de investigación hace referencia a IR, que significa recuperación de la información

, que es lo que hacen los motores de búsqueda.

Aquí es la forma en que el documento describe esta nueva dirección para los motores de búsqueda:

“El enfoque, denominado recuperación de información basada en el modelo, está destinada a reemplazar la larga vida. Paradigma “Recupere y luego rango” colapsando la indexación, la recuperación y los componentes de clasificación de los sistemas de IR tradicionales en un solo modelo unificado “.

El papel siguiente entra en DetAIL sobre cómo funciona el modelo unificado “

. Vamos a detenerse aquí para recordar que el nombre del nuevo algoritmo de Google es multitarea

Modelo unificado

Odicaré la descripción del modelo unificado

por ahora y simplemente note esto:

Illustration of Multitask Unified Model

Illustration of Multitask Unified Model “La distinción importante entre los sistemas de hoy y la previsto. El sistema es el hecho de que un modelo unificado reemplaza la indexación, la recuperación y los componentes de clasificación. En esencia, se conoce como modelo basado en modelo porque no hay más que un modelo “.

Captura de pantalla que muestra lo que un modelo unificado es

En otro lugar los diletantes

diletantes

papeles de investigación establecen: advertisementcontinue leyendo a continuación “para lograr esto, un asunto -llamadaEl marco de recuperación de la información basada en el modelo se propone que se aleja del paradigma de recuperación de índice tradicional, entonces-rango al codificar el conocimiento contenido en un cuerpo en un modelo unificado

que reemplaza la indexación, la recuperación y los componentes de clasificación de Sistemas tradicionales. “

¿Es una coincidencia que la tecnología de Google para responder preguntas complejas se denomina Modelo unificado multitarea y el sistema que se explica en este documento de mayo de 2021 hace el caso de la necesidad de la necesidad de un modelo unificado “

” Para responder preguntas complejas?

¿Qué es el documento de investigación de mamá? La búsqueda de etiebras “R

: Hacer expertos fuera de los diletantes

“El documento de investigación enumera Donald Metzler como autor. Anuncia la necesidad de un algoritmo que logre el TAS.K de responder preguntas complejas y sugiere un modelo unificado para lograrlo. Da una visión general del proceso, pero es un poco corta en detalles y experimentos.

Hay otro documento de investigación publicado en Diciembre 2020 que describe un algoritmo que tiene experimentos y detalles y uno de los autores es … Donald Metzler

.

AnunciCementContinue Reading a continuación El nombre del documento de investigación del 2020 de diciembre es, Mezcla multitarea de expertos secuenciales para los flujos de actividad de los usuarios

Vamos a detenerse aquí, de nuevo y reiterar el nombre del nuevo algoritmo de Google:

Modelo unificado multitarea

el Mayo 2021 Retinking Búsqueda: Hacer que los expertos fuera del papel diletantes describieron la necesidad de un modelo unificado

. El eEl documento de investigación de Arlier de 2020 de diciembre (por el mismo autor) se llama Multitarase
mezcla de expertos secuenciales para flujos de actividad de usuario (

PDF

).

¿Son estas coincidencias? Tal vez no. Las similitudes entre mamá y este otro documento de investigación son increíblemente similares.

Mose: mezcla multitarea de expertos secuenciales para los flujos de actividad de los usuarios
TL; DR

MOSE es Una tecnología de inteligencia de máquina que aprende de múltiples fuentes de datos (registros de búsqueda y navegación) para predecir patrones de búsqueda complejos de varios pasos. Es altamente eficiente, lo que lo hace escalable y poderoso.

Aquellas características de Mose coinciden en ciertas cualidades del algoritmo de mamá, específicamente que mamá puede responder consultas de búsqueda complejas y es 1,000 veces más potente queTecnologías como Bert.

AnunciCementContinue Lectura a continuación Lo que hace

TL; DR

Mose Aprende del orden secuencial de Click y navegación de datos. Esta información le permite modelar el proceso de consultas de búsqueda complejas para producir respuestas satisfactorias.

El documento de investigación de Mose de diciembre de 2020 de Google describe el comportamiento del usuario de modelado en orden secuencial, a diferencia del modelado en la consulta de búsqueda y el contexto. .

El modelado del comportamiento del usuario en orden secuencial es como estudiar cómo un usuario buscó esto, entonces esto, entonces, que en orden entiende cómo responder a una consulta compleja.

El papel lo describe así:

“En este trabajo, estudiamos el problema desafiante de cómo modelar el comportamiento secuencial del usuario en elConfiguraciones de aprendizaje multitarea neuronal.

Nuestra principal contribución es un marco novedoso, una mezcla de expertos secuenciales (MOSE). Modela explícitamente el comportamiento de los usuarios secuenciales utilizando una memoria larga a corto plazo (LSTM) en el marco de modelado de múltiples tareas de Multi-Gate Multi-Tasation de última hora “.

Esa última parte sobre “

Multi-Gate MEZCLE MEZCLA DE MODELO MULTI-TARK Framework

” es un bocado.

Es una referencia a un tipo de algoritmo que optimiza para múltiples tareas / metas y eso es prácticamente Todo lo que debe ser conocido por ahora. (

Citación: Modelado de las relaciones de tareas en el aprendizaje de tarea múltiple con la mezcla de múltiples compuertas de expertos

)

advertisementcontinue Lectura a continuación El papel de investigación de Mose discute otros múltiples múltiples -Task AlgorithMS que se optimizan para múltiples objetivos, como predecir simultáneamente qué video es posible que desee ver en YouTube, qué videos perpetuarán más compromiso y qué videos generará más satisfacción del usuario. Son tres tareas / metas.

El documento comenta:

“El aprendizaje multitarea es efectivo, especialmente cuando las tareas están estrechamente correlacionadas”.

Mose se entrenó en Búsqueda

El algoritmo de Mose se centra en el aprendizaje de lo que llama

datos heterogéneos

, lo que significa formas diferentes / diversas de datos. de interés para nosotros, en el contexto de la madre, es que el algoritmo de Mose se discute en el contexto de la búsqueda y las interacciones de los buscadores en su búsqueda de respuestas, es decir, qué pasos que un buscador tomó para encontrar unanswer.

“… En este trabajo, nos centramos en modelar los flujos de actividad de los usuarios de fuentes de datos heterogéneas (por ejemplo, registros de búsqueda y registros de navegación) y las interacciones entre ellos”.

Los investigadores experimentaron y probaron el algoritmo de Mose en las tareas de búsqueda dentro de G Suite y Gmail.

AnunciCementContinue leyendo a continuación

Mose y la predicción de la conducta de búsqueda

Otra característica que hace de Mose un candidato interesante para ser relevante para mamá es que puede predecir una serie de búsquedas y comportamientos secuenciales.

Consultas de búsqueda complejas, como lo señala el anuncio de Google Mum, puede tomar hasta ocho búsquedas.

, pero si un Algoritmo puede predecir estas búsquedas e incorporarlas en respuestas, el algoritmo puede ser mejor capaces de responder a esas misiones complejasiones.

El anuncio de la madre dice:

“Pero con una nueva tecnología llamada Modelo unificado multitarea, o mamá, nos estamos acercando a ayudarlo Con estos tipos de necesidades complejas. Entonces, en el futuro, necesitará menos búsquedas para hacer las cosas “.

. Y aquí es lo que establece el documento de Mose Research:

“Por ejemplo, los flujos de comportamiento de los usuarios, como los registros de búsqueda de usuarios en los sistemas de búsqueda, son naturalmente una secuencia temporal. Modelar los comportamientos secuenciales de los usuarios, ya que las representaciones secuenciales explícitas pueden potenciar al modelo de multitarea para incorporar las dependencias temporales, lo que predee la conducta futura del usuario con mayor precisión “.

Publicidad La lectura a continuación

Mose es altamente eficiente con los costos de recursos

La eficiencia de la Mose.es importante.

Menos recursos informáticos Un algoritmo debe completar una tarea más potente puede ser en esas tareas porque esto le da más espacio a escala. Se dice que 1,000 veces más poderoso que Bert.

El papel de investigación de Mose menciona el equilibrio de la calidad de la búsqueda con “

costos de recursos

,” Los costos de recursos son una referencia a los recursos informáticos.

El ideal es tener resultados de alta calidad con los costos de recursos de computación mínimos que le permitirán ampliar una tarea más grande como la búsqueda.

El algoritmo de pingüinos original solo se pudo ejecutar en el mapa de toda la Web (llamada Gráfico de enlace

) un par de veces al año. Presumiblemente, eso fue porque era intensivo de recursos y no podía ejecutarse a diario.

en 2016El pingüino se volvió más poderoso porque ahora podía correr en tiempo real. Este es un ejemplo de por qué es importante producir resultados de alta calidad con costos mínimos de recursos.

AnuncioContinue Lectura a continuación

El menor costo de recursos Mose requiere que sea más potente y escalable que pueda ser.

Esto es lo que dijeron los investigadores sobre los costos de recursos de Mose:

“En experimentos, mostramos la efectividad de la arquitectura de Mose en siete arquitecturas alternativas en ambos Datos de usuario sintéticos y ruidosos del mundo real en G Suite.

También demostramos la efectividad y la flexibilidad de la arquitectura de Mose en un motor de toma de decisiones del mundo real en Gmail que involucra a millones de usuarios, equilibrando entre la calidad de la búsqueda y costos de recursos “

Luego, hacia el final del papel, informa estos resultados notables:

“Destacamos dos beneficios de Mose. Primero, el rendimiento sabio, la MOSE supera significativamente el modelo de fondo compartido fuertemente sintonizado. En el requisito de 80% de ahorro de recursos, Mose puede preservar aproximadamente un 8% más de clics de búsqueda de documentos, lo que es muy importante en el producto.

Además, la Mose es robusta a través de diferentes niveles de ahorro de recursos debido a su Modeling Power, aunque asignamos iguales pesos a las tareas durante la capacitación “.

AnuncioContinue Lectura a continuación

y de la potencia pura y flexibilidad para pivotar para cambiar, se jacta:

“Esto le da a Mose más flexibilidad cuando el requisito comercial sigue cambiando en la práctica ya queUn modelo más robusto como Mose puede aliviar la necesidad de volver a entrenar el modelo, comparando con los modelos que son más sensibles a los pesos de importancia durante la capacitación “

Mamá, Mose y Transformador

Se anunció que mamá se había construido utilizando la técnica del transformador.


Anuncio de Google señaló:

“Mamá tiene el potencial de transformarte. Con tareas complejas. Al igual que Bert, la madre está construida en una arquitectura de transformador, pero es 1,000 veces más poderosa “. Los resultados informados en el documento de investigación de Mose de diciembre de 2020, fueron notables. Pero la versión de Mose probada en 2020 no se construyó utilizando la arquitectura del transformador. Los investigadores señalaron que la Mose podría fácilmente .Nded con transformadores. Los investigadores (en papel publicados en diciembre de 2020) mencionaron a los transformadores como una dirección futura para Mose: “Experimentación con técnicas más avanzadas Como el transformador se considera un trabajo futuro. … Mose, que consiste en bloques generales de construcción, se puede extender fácilmente, como el uso de otras unidades de modelado secuencial, además de LSTM, incluyendo grus, atenciones y transformadores … ” advertisementcontinue Lectura a continuación Según el documento de investigación, la Mose podría ser fácilmente sobrealimentada utilizando otras arquitecturas, como transformadores. Esto significa que la Mose podría ser parte de lo que Google anunció como mamá. Por qué el éxito de la Mose es notable Google publica muchas patentes de algoritmos y trabajos de investigación. MamáNY de ellos están empujando los bordes del estado de la técnica, al mismo tiempo que señalan fallas y errores que requieren más investigación. Ese no es el caso con Mose. Es todo lo contrario. Los investigadores observan los logros de Mose y cómo todavía es la oportunidad de hacerlo aún mejor. Lo que hace que la investigación de Mose sea aún más notable, entonces es el nivel de éxito que afirma y la puerta que se va a abrir para hacer. aún mejor. Es importante e importante cuando un documento de investigación reclama el éxito y no una combinación de éxito y pérdidas. Esto es especialmente cierto cuando los investigadores afirman alcanzar estos éxitos sin recurso significativo niveles. PublicidadContinue Lectura a continuación ¿La tecnología de Google Mum AI? Mamá se describe como unaTecnología de inteligencia rtificial. Mose se clasifica como Inteligencia de la máquina en el blog AI de Google. ¿Cuál es la diferencia entre la inteligencia de la AI y la máquina? No es mucho, están bastante en la misma categoría (tenga en cuenta que escribí la inteligencia de la máquina, no el aprendizaje automático). La base de datos de publicaciones de Google AI clasifica documentos de investigación sobre inteligencia artificial bajo la categoría de Inteligencia de la máquina . No hay una categoría de inteligencia artificial. No podemos decir con certeza que Mose es parte de la tecnología que subyace a la mamá de Google. Es posible que mamá sea en realidad una serie de tecnologías que trabajan juntas y que la Mose sea parte. de eso. Podría ser que la Mose es una parte importante de Google Mum.O, podría ser que la Mose no tiene nada que ver con mamá. Sin embargo, es intrigante que Mose sea un enfoque exitoso para predecir el comportamiento de búsqueda de usuarios y que se puede escalar fácilmente utilizando transformadores. Si esta forma o no una parte de la tecnología de mamá de Google, los algoritmos descritos dentro de estos documentos muestran Lo que es el estado de la técnica en la recuperación de la información. AnuncioContinue Lectura a continuación Citas Mose – Mose – MultitaSea la mezcla de expertos secuenciales para los flujos de actividad del usuario (PDF) Retwinking Search: Hacer expertos fuera de los diletantes (PDF) Anuncio oficial de Google de mamá Mamá: un nuevo hito AI para comprender la información

Leave a Reply

Your email address will not be published. Required fields are marked *