Actualmente, los documentos PDF son una parte fundamental para el intercambio de información. Siendo un formato omnipresente. Es normal encontrarse con ellos en una amplia gama de contextos como los informes empresariales, los documentos académicos y la publicación de normativa. Por ello es habitual encontrarse con la necesidad de extraer la información relevante de miles de páginas en formato PDF. Una tarea que, incluso con las herramientas de búsqueda de los lectores de PDF, es tediosa. Los modelos grandes de lenguaje (LLM) pueden ser de gran ayuda en estos casos, pudiendo leer y resumir PDF con Python de miles de páginas en pocos segundos. En esta entrada, se mostrará como se puede usar Python y el API de OpenAI para resumir PDF y preguntar sobre el contenido de este.
Antes de poder resumir en PDF con Python es necesario instalar las bibliotecas necesarias para ello. Generalmente será necesario instalar nltk y las diferentes partes de langchain que facilitan en trabajo con documentos de texto. Todas estas librerías, como es habitual en Python, se pueden instalar desde línea de comandos con pip. Generalmente la siguiente línea debería ser suficiente.
pip install langchain langchain_openai unstructured "unstructured[pdf]"
Ahora en Python se pueden importar las librerías y asignar el API Key de OpenAI para poder acceder a GPT.
import langchain
from langchain import VectorDBQA
from langchain.vectorstores import Chroma
from langchain.document_loaders import UnstructuredFileLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain_openai import OpenAIEmbeddings, OpenAI
import nltk
nltk.download("punkt")
OPENAI_API_KEY = "MY-OPENAI-KEY" En este código se debe reemplazar MY-OPENAI-KEY por la clave que se obtiene en la web de OpenAI como se explica en esta entrada.
Una vez importadas las librerías se puede usar la clase UnstructuredFileLoader para cargar en memoria el archivo PDF que se desea analizar. Debido a que los documentos PDF suelen ser extensos, es necesario dividir estos en fragmentos más pequeños para su análisis. Lo que se puede conseguir con la clase CharacterTextSplitter, lo que dividirá el documento en textos de tamaño más manejables. Esto es lo que se muestra en el siguiente código.
# Nombre del archivo PDF a cargar filename = 'document.pdf' # Importación del archivo PDF loader = UnstructuredFileLoader(filename) documents= loader.load() # División del archivo PDF en partes text_splitter = CharacterTextSplitter(chunk_size=800, chunk_overlap=0) texts = text_splitter.split_documents(documents)
En esta parte es en donde entra en juego el API de OpenAI. Se utilizan los embeddings proporcionados por OpenAI para asociarlos con el texto del PDF y luego se indicará un modelo de lenguaje.
embeddings = OpenAIEmbeddings(openai_api_key=OPENAI_API_KEY)
doc_search = Chroma.from_documents(texts, embeddings)
chain = VectorDBQA.from_chain_type(llm=OpenAI(api_key=OPENAI_API_KEY),
chain_type="stuff",
vectorstore=doc_search) Finalmente, el modelo ya está listo para realizar consultas sobre el PDF. Solamente se tienen que escribir la pregunta en leguaje natural y esperar la respuesta del modelo LLM. Por ejemplo, en nuestro caso se ha cargado el libro de Richard S. Sutton y Andrew G. Barto y se le ha preguntado que es Q-Learning.
query = "Can you summarize what the book says about Q-Learning?" chain.run(query)
' The book presents Q-learning as a solution to the reinforcement learning problem, where the agent learns how to behave in order to achieve a goal through interactions with its environment. Q-learning is a method for estimating the optimal action-value function, Q, which approximates the best possible actions to take in a given state. The book outlines the Q-learning algorithm and its convergence properties, and also discusses its applications in various fields such as biology and other real-world scenarios.'
Incluso, se le puede preguntar al modelo que resuma la respuesta en otro idioma.
query = "¿Puedes resumir lo que dice el libro sobre Q-Learning en español?" chain.run(query)
' El libro presenta el concepto de Q-Learning como uno de los métodos básicos para resolver problemas de aprendizaje por refuerzo. También menciona que R-Learning es una variante de Q-Learning y que se ha estudiado en la literatura bajo diferentes nombres, como el caso de maximizar la "recompensa promedio por paso de tiempo" o el "caso de recompensa promedio". Además, el libro menciona que el ejemplo de control de acceso en la cola fue sugerido por el trabajo de Carlström y Nordström.'
Una capacidad que facilita poder obtener información y resumir documentos PDF que este en un idioma que no conozcamos.
Ahora, se puede crear una clase que cargue el PDF, prepare los datos y nos de un método sencillo para preguntar sobre el contenido de los PDF. Una posible implementación de esta clase en la que se muestra en el siguiente código.
import langchain
import nltk
from langchain import VectorDBQA
from langchain.vectorstores import Chroma
from langchain.document_loaders import UnstructuredFileLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain_openai import OpenAIEmbeddings, OpenAI
nltk.download("punkt")
class PDFAnalyzer:
"""
Clase para analizar documentos PDF utilizando OpenAI.
Args:
pdf_path (str): Ruta del archivo PDF a analizar.
openai_api_key (str): Clave de la API de OpenAI.
Attributes:
pdf_path (str): Ruta del archivo PDF a analizar.
openai_api_key (str): Clave de la API de OpenAI.
documents: Documentos cargados desde el PDF.
texts: Textos divididos en fragmentos.
doc_search: Representación de los documentos para búsqueda.
chain: Cadena para consultas y respuestas.
"""
def __init__(self, pdf_path, openai_api_key):
self.pdf_path = pdf_path
self.openai_api_key = openai_api_key
self.load_pdf()
def load_pdf(self):
"""
Carga el archivo PDF y prepara los datos para análisis.
"""
# Cargar el PDF
loader = UnstructuredFileLoader(self.pdf_path)
documents = loader.load()
# Dividir los documentos en fragmentos
text_splitter = CharacterTextSplitter(chunk_size=800, chunk_overlap=0)
texts = text_splitter.split_documents(documents)
# Preparar los modelos y los embeddings
embeddings = OpenAIEmbeddings(openai_api_key=self.openai_api_key)
doc_search = Chroma.from_documents(texts, embeddings)
self.chain = VectorDBQA.from_chain_type(llm=OpenAI(api_key=self.openai_api_key),
chain_type="stuff",
vectorstore=doc_search)
def ask_question(self, question):
"""
Realiza una pregunta sobre el contenido del PDF.
Args:
question (str): Pregunta a realizar.
Returns:
str: Respuesta a la pregunta.
"""
response = self.chain.run(question)
return response analyzer = PDFAnalyzer(pdf_path, openai_api_key)
response = analyzer.ask_question("¿Puedes resumir lo que dice el libro sobre el método de MonteCarlo en español?")
print(response) ' El método de MonteCarlo es una técnica que se utiliza para estimar valores en situaciones complejas. Se llama así porque fue usado por físicos en los años 40 para entender fenómenos relacionados con la bomba atómica. Una ventaja de este método es que no se ve afectado por violaciones de la propiedad de Markov, ya que no actualiza sus estimaciones de valor en función de las estimaciones de valor de los estados sucesores.'
En este artículo, se ha visto cómo utilizar Python en conjunto con OpenAI para realizar análisis automático de los datos contenidos en cualquier documento PDF. Creando con ello la clase PDFAnalyzer con la que se puede resumir PDF con Python de una forma sencilla.
Imagen de PublicDomainPictures en Pixabay
En la era del dato, las organizaciones se enfrentan al reto de gestionar volúmenes masivos…
En la serie Creación de una API REST con Express y TypeScript construimos una API…
Durante la Segunda Guerra Mundial, la Fuerza Aérea de Estados Unidos quería reforzar sus aviones…
En muchas situaciones —ya sea para grabar un tutorial, tomar capturas de pantalla profesionales, probar…
Imagínate en una sala con un grupo de personas, por ejemplo, en una oficina, un…
En el trabajo diario con ordenadores, es común encontrarse con tareas repetitivas: realizar copias de…
This website uses cookies.