Procesamiento de texto

Analiza archivos con pipelines y herramientas clasicas

Aprende a contar palabras, filtrar logs y limpiar texto usando comandos de Linux.

Pipeline avanzado

cat log.txt | grep ERROR | wc -l

Cuenta errores en un archivo de log.

Objetivo

Dominar herramientas de analisis de texto para tareas de soporte, data y DevOps.

Comandos de texto

Haz clic en Ejecutar para ver la salida simulada.

wc

Cuenta lineas, palabras y bytes.

$ wc -w archivo.txt

grep

Busca patrones en archivos.

$ grep "error" log.txt

awk

Procesa columnas y campos.

$ awk '{print $1}' datos.csv

sed

Transforma texto con reglas.

$ sed 's/error/ok/g' log.txt

cut

Extrae columnas por delimitador.

$ cut -d, -f2 datos.csv

sort

Ordena lineas de texto.

$ sort lista.txt

uniq

Elimina repetidos o cuenta ocurrencias.

$ uniq -c lista.txt

tr

Transforma caracteres.

$ tr 'a-z' 'A-Z' < archivo.txt

Visualizacion de pipelines

Pipeline basico

cat log.txt | grep ERROR | wc -l
  |         |            |
archivo   filtro       conteo
              

Pipeline de limpieza

cat datos.csv | cut -d, -f2 | tr 'a-z' 'A-Z' | sort
              

Terminal simulada

bash - texto@linux

$

Scripts bash incluidos

word_counter.sh

bash bash/word_counter.sh

log_analyzer.sh

bash bash/log_analyzer.sh

text_cleaner.sh

bash bash/text_cleaner.sh

Documentacion

Guia completa en docs/guia.md.