Categories
SEO

Conozca a todas las características binarias: la escasa red neuronal de Bing para una mejor relevancia de búsqueda

Bing ha introducido “Hacer cada binario de características” (MEB), un modelo escaso a gran escala que complementa sus modelos de transformadores de producción para mejorar la relevancia de la búsqueda, la compañía anunció el miércoles. Esta nueva tecnología, que ahora se está ejecutando en el 100% de Bing Búsquedas en todas las regiones e idiomas, ha resultado en un aumento de casi el 2% en la tasa de clics para los resultados de búsqueda principales, una reducción en la reformulación de la consulta manual en más del 1% y un 1.5% de reducción de clics en la paginación.

Lo que hace MEB.

Mobs Maps Datos individuales a las características, lo que lo ayuda a lograr una comprensión más matizada de los hechos individuales. El objetivo detrás de MEB parece ser mejor imitar mejor cómo la mente humana procesa las respuestas potenciales.

Esto está en contraste con muchas redes neuronales profundas (DNN) Los modelos de idioma que puedan generalizar demasiado al rellenar el espacio en blanco para “______ pueden volar”, proporcionó BING como ejemplo. La mayoría de los modelos de idioma DNN pueden llenar el espacio en blanco con la palabra “aves”.

“MEB evita esto asignando cada hecho a una característica, por lo que puede asignar pesas que distinguen entre la capacidad de volar, digamos, un Pingüino y un frailecillo, “dijo Bing en el anuncio,” puede hacer esto por cada una de las características que hacen un ave, o cualquier entidad u objeto para eso, singular. En lugar de decir que ‘los pájaros pueden volar “, se emparejar con MEB con modelos de transformadores pueden llevar esto a otro nivel de clasificación, diciendo que’ las aves pueden volar, excepto avestruces, pingüinos y estas otras aves ‘”

Discernir la intención oculta.

“Al mirar en las mejores funciones aprendidas por MEB, FounD Puede aprender los efectos ocultos entre la consulta y el documento “, dijo Bing. Examples learned by MEB model.

Ejemplos aprendidos de MEB Model. Imagen: Bing.

MEB pudo aprender que “Hotmail” está fuertemente correlacionado con “Microsoft Outlook”, aunque los dos no están cerca en términos de significado semántico. Hotmail fue rebroted como Microsoft Outlook y MEB pudo recoger esta relación. De manera similar, se enteró de la conexión entre “FOX31” y “KDVR” (a pesar de que no tiene conexión semántica abierta entre las dos frases), donde KDVR es el signo de llamadas del canal de TV que opera bajo la marca FOX31. MEB también puede identificar relaciones negativas entre frases, lo que lo ayuda a entender lo que los usuarios no quieren ver para una consulta dada. En los ejemplos de Bing provistos, los usuarios buscanG Para “Béisbol”, no suele hacer clic en las páginas que hablan sobre “hockey”, aunque los dos son deportes populares, y lo mismo se aplica a 瑜伽 (yoga) y documentos que contienen 歌舞 (bailando y canto).

Capacitación y escala.

MEB está capacitado en tres años de búsqueda de Bing que contienen más de 500 mil millones de parejas de consulta / documento. Para cada impresión de búsqueda, Bing usa Heuristics para evaluar si el usuario estaba satisfecho con el resultado en que hicieron clic. Los documentos “satisfactorios” están etiquetados como muestras positivas y otros documentos en la misma impresión están etiquetados como muestras negativas. Las características binarias se extraen del texto de la consulta, la URL de documentos, el título y el texto del cuerpo de cada consulta / pareja de documentos y se alimentan a un modelo de red neuronal escasa. Bing proporciona detalles más específicos on cómo funciona MEB en su anuncio oficial How MEB is refreshed on a daily basis.
.

Cómo se actualiza MEB a diario. Imagen: Bing.

    Incluso después de implementarse en Bing, MEB se actualiza diariamente al entrenar continuamente en los últimos datos de clic diario (como se muestra arriba). Para ayudar a mitigar el impacto de las características obsoletas, las marcas de tiempo de cada característica se verifican y las que no han mostrado en los últimos 500 días se filtran. El despliegue diario del modelo actualizado también está completamente automatizado.

  • Lo que significa para la búsqueda de Bing.
  • Como se mencionó anteriormente, la introducción de MEB en la parte superior de los modelos de transformador de producción de Bing ha resultado en:

Un aumento de casi el 2% en la velocidad de clics en los resultados de búsqueda superior (por encima del pliegue) sin la necesidad de desplazarse hacia abajo . A rMeducción en la reformulación manual de la consulta en más del 1%.

Una reducción de clics de paginación en más del 1,5%.

Por qué nos importa.


La mejor relevancia de búsqueda significa que los usuarios tienen más probabilidades de encontrar lo que están buscando más rápido, en la primera página de resultados, sin la necesidad de reformular sus consultas. Para los mercadólogos, esto también significa que si está en la página 2 de los resultados de búsqueda, su contenido probablemente no sea relevante para la búsqueda.
La comprensión más matizada del contenido de MEB también puede ayudar a conducir más tráfico a Marcas, empresas y editores, ya que los resultados de la búsqueda pueden ser más relevantes. Y, la comprensión de MEB de frases correlacionadas (por ejemplo, “Hotmail” y “Microsoft Outlook”) y las relaciones negativas (por ejemplo, “Béisbol” y “hockey”) pueden permitir a MarketeRS para pasar más tiempo enfocándose en lo que los clientes están buscando realmente en lugar de fijar en las palabras clave adecuadas para clasificar más alto. Para la industria de búsqueda, esto puede ayudar a Bing a mantener su posición. Google ya ha establecido su visión para mamá (aunque estamos lejos de ver todo su potencial en acción), y MEB puede reforzar las capacidades de búsqueda tradicionales de Bing, lo que lo ayudará a continuar compitiendo contra el líder de la industria. y otros motores de búsqueda.

Leave a Reply

Your email address will not be published. Required fields are marked *