2020
DOI: 10.48550/arxiv.2002.04723
|View full text |Cite
Preprint
|
Sign up to set email alerts
|

Superbloom: Bloom filter meets Transformer

Abstract: We extend the idea of word pieces in natural language models to machine learning tasks on opaque ids. This is achieved by applying hash functions to map each id to multiple hash tokens in a much smaller space, similarly to a Bloom filter. We show that by applying a multilayer Transformer to these Bloom filter digests, we are able to obtain models with high accuracy. They outperform models of a similar size without hashing and, to a large degree, models of a much larger size trained using sampled softmax with t… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1

Citation Types

0
1
0
1

Year Published

2020
2020
2024
2024

Publication Types

Select...
2
1

Relationship

0
3

Authors

Journals

citations
Cited by 3 publications
(2 citation statements)
references
References 17 publications
0
1
0
1
Order By: Relevance
“…Estos grandes modelos de lenguaje contienen billones de parámetros en su diseño y son entrenados con un inmenso volumen de datos procedentes de diversas fuentes, como por ejemplo textos, libros, artículos, códigos y conversaciones en línea, lo que les permite aprender patrones y reglas gramaticales (Pereira & Moura, 2023). De esta forma, se entrenan para predecir palabras siguiendo la sintaxis y el sentido de un texto dado (Anderson et al, 2020). Algunos presentan usos únicos, como, por ejemplo, generar respuestas en conversaciones, describir conceptos o temas complejos, generar códigos nuevos o corregir errores en códigos informáticos existentes.…”
Section: Educar En La Era De La Inteligencia Artificial Generativaunclassified
“…Estos grandes modelos de lenguaje contienen billones de parámetros en su diseño y son entrenados con un inmenso volumen de datos procedentes de diversas fuentes, como por ejemplo textos, libros, artículos, códigos y conversaciones en línea, lo que les permite aprender patrones y reglas gramaticales (Pereira & Moura, 2023). De esta forma, se entrenan para predecir palabras siguiendo la sintaxis y el sentido de un texto dado (Anderson et al, 2020). Algunos presentan usos únicos, como, por ejemplo, generar respuestas en conversaciones, describir conceptos o temas complejos, generar códigos nuevos o corregir errores en códigos informáticos existentes.…”
Section: Educar En La Era De La Inteligencia Artificial Generativaunclassified
“…This robustness has been used recently in Anderson et al (2020) to operate self-attention transformer models on reduced-size vocabularies by hashing, where the model must be robust to hash collisions of the larger original vocabulary. The authors of that paper compare this robustness to error correcting output codes (Berger, 1999;Dietterich and Bakiri, 1994).…”
Section: Robustness and Perturbationsmentioning
confidence: 99%