• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Eliminación de duplicados en DataFrames de Pandas

febrero 26, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Los DataFrames de Pandas es uno de los principales objetos para el análisis de datos en Python. Al trabajar con datos reales, uno de los problemas más comunes es la presencia de valores duplicados, lo que puede afectar tanto a la integridad como a la precisión de los análisis. Afortunadamente, en los DataFrames de Pandas existen herramientas para la eliminación de duplicados de una manera sencilla. En esta entrada se analizará cómo eliminar duplicados en DataFrames de Pandas, abordando tanto el caso donde todos los valores son iguales como aquellos en los que solamente un subconjunto de estos lo son.

Eliminación de duplicados donde todos los valores son iguales

El problema más habitual a la hora de eliminar duplicados es cuando todos los valores de un registro son iguales al de otro. Esto es, filas que son completamente idénticas a otras. Para este problema, los DataFrames de Pandas cuentan con el método drop_duplicates() que al ejecutarlo en un DataFrame devuelve otro sin las filas duplicadas. Lo que se puede ver en el siguiente ejemplo.

import pandas as pd

# Creamos un DataFrame de ejemplo con filas duplicadas
data = {'A': [1, 1, 2, 3, 3],
        'B': ['a', 'a', 'b', 'c', 'd']}
df = pd.DataFrame(data)

print("DataFrame original:")
print(df)

# Eliminamos las filas duplicadas
df_sin_duplicados = df.drop_duplicates()

print("\nDataFrame sin duplicados:")
print(df_sin_duplicados)
DataFrame original:
   A  B
0  1  a
1  1  a
2  2  b
3  3  c
4  3  d

DataFrame sin duplicados:
   A  B
0  1  a
2  2  b
3  3  c
4  3  d

En donde se ha creado un DataFrame con filas duplicadas, empleando el método drop_duplicates() para eliminar estas.

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

Publicidad


Eliminación de duplicados donde solo un subconjunto de valores es igual

En algunos casos, es posible que solo sea necesario eliminar duplicados basados en un subconjunto de columnas en lugar de todas las columnas. Por ejemplo, si se desea obtener solamente un registro por cliente, se eliminan operaciones que pueden ser diferentes. Para esto se puede usar el método drop_duplicates() con el parámetro subset para indicar aquellas columnas que se deben usar para identificar duplicados. Esto se puede ver en el siguiente ejemplo donde se crea un DataFrame y solo se elimina los duplicados de la columna A.

# Creamos un DataFrame de ejemplo con filas duplicadas
data = {'A': [1, 1, 2, 3, 3],
        'B': ['a', 'b', 'c', 'd', 'e'],
        'C': ['x', 'y', 'x', 'y', 'x']}
df = pd.DataFrame(data)

print("DataFrame original:")
print(df)

# Eliminamos las filas duplicadas basadas solo en la columna 'A'
df_sin_duplicados = df.drop_duplicates(subset=['A'])

print("\nDataFrame sin duplicados basados en 'A':")
print(df_sin_duplicados)
DataFrame original:
   A  B  C
0  1  a  x
1  1  b  y
2  2  c  x
3  3  d  y
4  3  e  x

DataFrame sin duplicados basados en 'A':
   A  B  C
0  1  a  x
2  2  c  x
3  3  d  y

A diferencia del ejemplo anterior, en esta ocasión solamente se tienen en cuenta cuando el valor de una columna se repite. Independientemente de que el resto de los valores sean diferentes. Como se puede ver en el ejemplo se conserva solamente el primer registro, comportamiento que se puede modificar con la propiedad keep.

Seleccionar el registro que se conserva al eliminar duplicados con drop_duplicates()

El parámetro keep del método drop_duplicates() es clave para escoger los registros que se desean conservar cuando existen duplicados en un DataFrame. La propiedad puede tener la siguiente tres opciones:

  • keep='first': Esta es la opción por defecto. Mantendrá la primera aparición de cada conjunto de valores duplicados y eliminará las siguientes.
  • keep='last': Conservará la última aparición de cada conjunto de valores duplicados y eliminará las anteriores.
  • keep=False: Eliminará todas las filas que contienen valores duplicados, esto es, no se conservará ningún registro de los que son duplicados.

Veamos a continuación cómo afecta el valor que se indica en el parámetro a los resultados. En el caso de indicar la opción keep='first' no afecta al resultado ya que es la opción por defecto del método.

# Eliminamos las filas duplicadas manteniendo la primera aparición
df_sin_duplicados = df.drop_duplicates(subset=['A'], keep='first')

print("\nDataFrame sin duplicados basados en 'A' (keep='first'):")
print(df_sin_duplicados)
DataFrame sin duplicados basados en 'A' (keep='first'):
   A  B  C
0  1  a  x
2  2  c  x
3  3  d  y

Cuando se indica el valor keep='last' el resultado cambia ya que se conserva la última aparición en lugar de la primera.

# Eliminamos las filas duplicadas manteniendo la última aparición
df_sin_duplicados = df.drop_duplicates(subset=['A'], keep='last')

print("\nDataFrame sin duplicados basados en 'A' (keep='last'):")
print(df_sin_duplicados)
DataFrame sin duplicados basados en 'A' (keep='last'):
   A  B  C
1  1  b  y
2  2  c  x
4  3  e  x

Finalmente, cuando se usa la opción keep=False se eliminan todos los registros duplicados y solamente quedan los valores únicos.

# Eliminamos todas las filas que contienen valores duplicados
df_sin_duplicados = df.drop_duplicates(subset=['A'], keep=False)

print("\nDataFrame sin duplicados basados en 'A' (keep=False):")
print(df_sin_duplicados)
DataFrame sin duplicados basados en 'A' (keep=False):
   A  B  C
2  2  c  x

Publicidad


Conclusiones

La eliminación de duplicados en DataFrames de Pandas es un proceso esencial para limpiar y preparar los datos antes de realizar múltiples análisis. En Pandas, el método drop_duplicates() con el que se puede abordar la mayoría de los casos. Un método que se puede eliminar cuando la fila es completamente idéntica o cuando solamente unos valores son idénticos. Finalmente, el parámetro keep permite seleccionar con precisión los registros que se desean conservar.

Imagen de Nick115 en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Python Etiquetado como: Pandas

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Cómo calcular el tamaño de la muestra para encuestas publicado el septiembre 9, 2025 | en Ciencia de datos
  • Aplicación web interactiva que muestra un mapa de Madrid con puntos de interés destacados, creado utilizando la biblioteca Folium. Tutorial: Creando un mapa interactivo con Folium en Python publicado el diciembre 13, 2024 | en Python
  • Entendiendo la validación cruzada: Selección de la profundidad óptima en un árbol de decisión publicado el septiembre 13, 2024 | en Ciencia de datos
  • Introducción a igraph en R (Parte 9): Centralidad de Prestigio y Autoridad (modelo HITS, Hyperlink-Induced Topic Search) publicado el mayo 14, 2025 | en R
  • Aprovecha un 40% de descuento en Coursera Plus para impulsar tus habilidades en Ciencia de Datos e Inteligencia Artificial publicado el noviembre 9, 2024 | en Noticias, Reseñas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto