Skip to content

Latest commit

 

History

History
219 lines (146 loc) · 13 KB

README.md

File metadata and controls

219 lines (146 loc) · 13 KB

Proyecto 2 BD2

Organización del equipo

Participante Papel
José Rafael Chachi Rodriguez Backend
Joaquín Francisco Jordán O'Connor Backend
Juan Diego Castro Padilla Backend
Juan Diego Lareda Yarma Frontend

Video explicativo

Link del video: https://drive.google.com/file/d/1crUT1CHy8CX1tj3TdSDlCxwQIOi75kNb/view?usp=sharing

Introducción

Para este proyecto, se nos ha pedido crear y un indice invertido utilizando el metodo de SPIMI (Single Pass In-Memory Indexing) en los abstracts de unos articulos web.

Objetivos

Principal

Aplicar los algoritmos de búsqueda y recuperación de la información aprendidos en clase en memoria secundaria.

Secundarios

  • Cargar la base de datos sobre la cual se trabajara en el proyecto.
  • Crear una interfaz amigable para la realización de las consultas.

Descripción del dominio de datos

El dataset utilizado es un extracto arXiv.org, el cual colecciona una vasta cantidad de artículos escolares en las ramas de física, matemáticas, química, computación, entre otras.

ArXiv

El formato del documento es una lista de objetos JSON con la siguiente información:

"id": "0704.0001"
"submitter": "Pavel Nadolsky"
"authors": "C. Balazs, E. L. Berger, P. M. Nadolsky, C.-P. Yuan"
"title": "Calculation of prompt diphoton production cross sections at Tevatron and LHC energies"
"comments": "37 pages, 15 figures; published version"
"journal-ref": "Phys.Rev.D76:013009,2007"
"doi": "10.1103/PhysRevD.76.013009"
"report-no": "ANL-HEP-PR-07-12"
"categories": "hep-ph"
"license": ""
"abstract": " A fully differential calculation in perturbative quantum chromodynamics is presented for the production of massive photon pairs at hadron colliders. All next-to-leading order perturbative contributions from quark-antiquark, gluon-(anti)quark, and gluon-gluon subprocesses are included, as well as all-orders resummation of initial-state gluon radiation valid at next-to-next-to-leading logarithmic accuracy. The region of phase space is specified in which the calculation is most reliable. Good agreement is demonstrated with data from the Fermilab Tevatron, and predictions are made for more detailed tests with CDF and DO data. Predictions are shown for distributions of diphoton pairs produced at the energy of the Large Hadron Collider (LHC). Distributions of the diphoton pairs from the decay of a Higgs boson are contrasted with those produced from QCD processes at the LHC, showing that enhanced sensitivity to the signal can be obtained with judicious selection of events. "
"versions": []
"update_date": "2008-11-26"
"authors_parsed": []

Dataset extraído de Kaggle.

Back-End

Se utilizó el framework FastAPI, con el cual conectamos con el front-end a través de dos endpoints, los cuales devolverán el top K de nuestro indice creado y PostgreSQL. Para eso, se interpreta la query enviada por el usuario y se devuelve la data a través de un JSON.

Endpoints

@app.post('/postgresql_recover')
async def obtener_datos(data: dict) -> dict:
  • Obtiene los k documentos más relevantes respecto a la query desde la conexion con Postgres.
@app.post('/local_index_recover')
async def get_top_k_invidx(data: dict) -> dict:
  • Obtiene los k documentos mas relevantes respecto a la query desde nuestro propio índice
@app.post('/create_index')
async def create_index() -> dict:
  • Crea el índice en memoria secundaria y lo deja listo para la recuperacion de la información en los documentos.

Contrucción del índice invertido

En la construcción del índice invertido en memoria secundaria se utilizó el algoritmo Single Pass In-Memory Indexing (SPIMI). Se adaptó este algoritmo, que sirve para crear índices invertidos para el modelo de recuperación booleana, para realizar consultas por ranking. Para hacer esto, al momento de computar las listas de postings de cada término se agregó la frecuencia de término, que posteriormente nos ayudará a computar los pesos tf-idf para la búsqueda por texto.

Para implementar este algoritmo, se tomó como referencia la siguiente implementación de la función SPIMI-Invert: Referencia

Una vez se construyeron los índices invertidos locales usando SPIMI-Invert, se combinaron usando la estrategia de k-way merge en memoría secundaria. Se implementó usando un heap de tamaño k que guarda el mínimo término siendo procesado en cada documento.

Estructura del índice

Se tienen 2 archivos principales:

  1. Index file: Archivo que guarda el término y su respectiva posting list. Ordenado por término en orden creciente. Las posting lists guardan pares (docID, term frequency).
  2. Length file: Archivo que guarda el documento y la norma de su vector de tf-idf. Este archivo es necesario para hacer un cálculo eficiente de la similitud por coseno.

Asimismo, se crean otros 4 archivos auxiliares:

  1. Doc map file: Archivo que mapea posiciones lógicas de documentos a posiciones físicas en el archivo de datos crudo.
  2. Terms header file: Archivo que mapea posiciones lógicas de términos a posiciones físicas en el Index file. Se utiliza para hacer búsqueda binaria sobre el índice, que está ordenado.
  3. Size files: Archivos que guardan la cantidad de términos en el índice invertido y la cantidad total de documentos.

Diagrama del proceso

Manejo de memoria secundaria

Se utilizó la memoria secundaria para guardar los resultados de los índices invertidos parciales en el SPIMI-Invert, y también en el merge. También se utilizó la memoria secundaria para persistir cierta información relevante como la cantidad de términos en el índice invertido y la cantidad de documentos total (que nos sirve posteriormente para calcular el tf-idf).

Ejecución óptimo de consultas

Para realizar una consulta óptima se ha considerado tanto la complejidad espacial como la complejidad computacional. Se tomó como guía el siguiente pseudocódigo:

@measure_execution_time
    def cosine_score(self, query: str, k: int) -> List[Tuple[int, float]]:
        lengths: Dict[int, float] = self._obtain_lenghts_binary(self.length_file_name)

        with open(self.index_file_name) as index_file, open(self.header_terms_file_name,
                                                            mode="rb") as header_terms_file:
            query_processed = self._preprocess(query)
            scores: Dict[int, float] = {}
            norm_q = 0
            query_processed = dict(sorted(query_processed.items(), key=lambda x: x[0], reverse=False))
            for query_term in query_processed:
                tf_term_q: int = query_processed[query_term]
                postings_list_term = self._binary_search_term(header_terms_file, index_file, query_term)
                if postings_list_term is None:
                    continue
                df_term = len(postings_list_term)
                tf_idf_t_q = math.log10(1 + tf_term_q) * math.log10(self.n / df_term)
                norm_q += tf_idf_t_q ** 2
                for d, tf_term_d in postings_list_term:
                    tf_idf_t_d = math.log10(1 + tf_term_d) * math.log10(self.n / df_term)
                    if d in scores:
                        scores[d] += tf_idf_t_d * tf_idf_t_q
                    else:
                        scores.update({d: tf_idf_t_d * tf_idf_t_q})
            norm_q = math.sqrt(norm_q)
            for d in scores:
                scores[d] = scores[d] / (lengths[d] * norm_q)
            return list(sorted(scores.items(), key=lambda x: x[1], reverse=True))[0:k]

Para la implementación de las consultas, se consideró ya un cálculo de las normas de cada documento. Es inevitable manejar un arreglo en donde se guarden los documentos con sus respectivos scores, debido hay que considerar todos los documentos para posteriormente ordenarlos. En el caso de los cálculos del score por documento, solo se está iterando por cada término de la query en la colección total de términos de todos los documentos existentes. Básicamente se está aplicando una intersección debido a que estamos accediendo a memoria secundaria. Además de ello, cabe señalar que se está realizando una búsqueda binaria de un término en la colección total de términos. Esto es para optimizar de manera notable las lecturas en memoria secundaria.

Conexion con Postgres

Para poder comparar los documentos obtenidos con PostgreSQL se hizo uso de psycopg2 para realizar la conexion entre PostgreSQL y nuestro servidor de backend en Python.

La consulta elegida para PostgreSQL es la siguiente:

SELECT title, abstract, ts_rank(indexed, query) rank
FROM documents2, plainto_tsquery('english', '{Q}') query
ORDER BY rank DESC LIMIT {k};

En ella, lo que se hace es asignar un score a la similitud entre el documento (compuesto por el título y el abstract del documento) y la query. Se hizo uso de la funcion plainto_tsquery para transformar un texto escrito en lenguaje natural y convertirlo a un tsquery que puede ser analizado con ts_rank.

Para este proyecto no se consideró el uso del Generalized Inverted Index. La razon principal es que el tipo de consulta propuesta retorna un top-k de documentos ordenados por relevancia. Sin embargo, el gin filtra aquellos documentos que hacen match con la query, dejando abierta la posibilidad de que se filtren más documentos que el k requerido por la consulta.

Frontend

Se utilizó React para la elaboración de la interfaz. Aquí, el usuario colocará la query y el top k documentos a obtener. Al presionar el botón de enviar, se realizará una conexión con las funciones del back-end (una para nuestro índice invertido y otra para Postgres), enviando como parámetros dichas variables. Seguidamente, la página esperará hasta que cada función devuelva un diccionario de los datos obtenidos, para después mostrarlos en formato de tabla, con el tiempo de consulta de cada uno.

Conexión a la PostgreSQL

image

Conexión al índice creado localmente

image

Interfaz al buscar una query

Resultado

Comparacion de tiempos al recuperar documentos

Tiempos

Conclusiones

  • Realizamos un uso eficiente de la memoria secundaria para crear el Indice Invertido para su posterior uso en la recuperacion de la documentos basada en el contenido de la query.

  • Comparamos los resultados entre nuestro Indice Invertido y los metodos de recuperacion de documentos que utliza Postgres. Llegamos a la conclusion que el sistema de ranking de Postgres puede llegar a tener multiples documentos con ranking 1, por lo que a veces le cuesta establecer un orden total en funcion de la relevancia del abstract del documento.

  • El algoritmo de busqueda binaria optimiza de forma significativa el procesamiento de consultas sobre el Indice Invertido almacenado en memoria secundaria.

Autores

Joaquín Jordán Juan Diego Castro José Chachi Juan Diego Laredo
Joaquín Juan Diego Castro José Juan Diego Laredo
github.com/jjordanoc github.com/ByJuanDiego github.com/JoseChachi github.com/DarkNeSsJuaN25

Referencias bibliográficas