Linux работа с текстовыми файлами

Текстовые файлы и потоки

Доброго времени суток! Сегодня поговорим о работе с текстовыми файлами и потоками в Linux Bash. Разберем команды для сортировки и объединения файлов, а также повторим команды поиска заданной строки и вывода в файл.

    Получите список всех процессов и перенаправьте вывод в файл ps.txt.
    ps > ps.txt

Выполните команду поиска всех обычных файлов в каталоге /etc так, чтобы найденные имена файлов были записаны в файл SysComm в домашнем каталоге, а поток ошибок – в нуль-устройство /dev/null.
find /etc > SysCom 2> /dev/null

Выполните ту же команду, но так, чтобы потоки вывода и ошибок были записаны в файл SysComm.
find /etc &> SysComn

Допишите в конец файла SysComm информацию о текущей дате и времени, выводимую командой date.
date >> SysComn

Установите опцию noclobber и сотрите содержимое файла ps.txt с помощью перенаправления вывода.
set -o noclobber
> ps.txt (невозможно перезаписать файл)

Проведите нерекурсивный поиск файлов символических ссылок в каталоге /usr/share/doc так, чтобы их список был выведен в отсортированном виде с помощью фильтра sort.
find /usr/share/doc — type l | sort -r

Выведите список всех процессов в файл ps.txt и отсортированный список на экран одновременно.
ps | tee ps.txt |sort -r

Определите из man ascii восьмеричный код системного звукового сигнала и выведите его с помощью echo.
echo -e ‘007’

Команда less позволяет открыть несколько файлов, указав их в качестве аргументов. Просмотрите несколько файлов? Как перейти от просмотра одного файла к другому?
less ps.txt SysComn (n — переход к следующему файлу)

Выведите содержимое файла /etc/passwd в обратном порядке следования строк с нумерацией.
cat -b /etc/passwd | sort -r -n

Получите имена трех самых больших файлов в каталоге /usr/bin.
ls -sl | sort -n -r | cut -c62-100

Получите столбец относительных приоритетов всех процессов в системе.
ps -l | cut -c25-30

Получите столбец из имен пользователей, находящийся в данный момент в сеансе.
who | cut -c1-8

Получите список всех пользователей системы. В каком файле он находится?
cut -d: -f1 /etc/passwd

Получите пронумерованный столбец, составленный из символов строк – имен файлов в текущем каталоге так, чтобы были выведены символы с третьего до последнего.
ls -l | cut -c58-80 | cat -b

С помощью sed получите список только тех процессов, которые связаны с каким-либо терминалом (фильтр по строке tty).
ps -e | sed ‘/tty/!d;’

В полученном списке процессов с помощью sed замените все строки tty на terminal.
ps -e | sed ‘/tty/!d; s/tty/terminal/g’

Создайте файл из четверостишия st4.txt.
cat > st4.txt
Мой дядя самых честных правил,
Когда не в шутку занемог,
Он уважать себя заставил
И лучше выдумать не мог.
Ctrl+D

Вставьте две пустые строки после каждой строки в st4.txt.
sed ‘G;G’ st4.txt

Удалите все пробелы/табы в конце каждой строки в st4.txt.
sed ‘s/[ \t]*$//’ st4.txt

Создайте файл st.txt, скопировав st4.txt 5 раз, пронумеруйте строки.
paste -d»\n» -s st4.txt st4.txt st4.txt st4.txt st4.txt > st.txt

Выведите каждую пятую строку, начиная со второй.
sed -n ‘2-5p’ st.txt

Выведите первые 10 строк файла, используя команду sed.
sed 10q st.txt

При помощи awk удалите из списка процессов п.16 второй столбец.
ps -e | awk ‘<$2=""; print $0>‘

При помощи awk пронумеруйте полученный список.
ps | awk ‘

Выведите отсортированный список имен пользователей.
cat /etc/passwd | sort -t:

Выведите четные строки файла.
сat ps.txt | awk ‘NR%2==0’

Создайте в текущем каталоге копию D1 каталога d1 из lab3 с подкаталогами.
cp

/linux_lab3/d1 D1 -R

Копируйте файл st4.txt в каталог D1.
cp ps.txt D1

Сравните рекурсивно каталоги d1 и D1.
diff D1

Сравните содержимое домашних каталогов двух пользователей.
diff /root

Создайте два файла ps1.txt и ps2.txt, содержащие полный список текущих процессов. Получите файл patch.txt с отличиями ps1.txt от ps2.txt.
ps -l > ps1.txt
ps -l > ps2.txt
diff ps1.txt ps2.txt > patch.txt

Получите список групп пользователей в системе, отсортированный по GID в обратном числовом порядке.
cut -d: -f1,3 /etc/group | sort -r -t: -k2 -m

С помощью find, head и sort получите список из десяти файлов в домашнем каталоге, занимающих наибольшее дисковое пространство.
find -size +1 | head -10 | sort -n

Читайте также:  Работа с жестким диском без windows

Выведите общее количество файлов в текущем каталоге.
ls | wc -l

Выведите пронумерованный список файлов в текущем каталоге.
ls | cat -b

Задайте шаг нумерации, равный двум.
ls | nl | sed 2

Сколько имеется пользователей, UID которых больше 100?
awk ‘$3>100‘ /etc/passwd

Выведите последние три строки файла /etc/passwd, заменив разделители – двоеточия на разделители – вертикальные черты (|).
tail -3 /etc/passwd | sed ‘s/:/|/g’

Разделите файл /etc/passwd на части по 10 строк, находящиеся в текущем каталоге. Имена файлов должны начинаться с passwd.
split -l10 /etc/passwd passwd | cat /etc/passwd

И, конечно же, не забывайте оставлять свои комментарии.

Источник

12.4. Команды обработки текста

Сортирует содержимое файла, часто используется как промежуточный фильтр в конвейерах. Эта команда сортирует поток текста в порядке убывания или возрастания, в зависимости от заданных опций. Ключ -m используется для сортировки и объединения входных файлов. В странице info перечислено большое количество возможных вариантов ключей. См. Пример 10-9, Пример 10-10 и Пример A-9.

Топологическая сортировка, считывает пары строк, разделенных пробельными символами, и выполняет сортировку, в зависимости от заданного шаблона.

Удаляет повторяющиеся строки из отсортированного файла. Эту команду часто можно встретить в конвейере с командой sort.

Ключ -c выводит количество повторяющихся строк.

Команда sort INPUTFILE | uniq -c | sort -nr выводит статистику встречаемости строк в файле INPUTFILE (ключ -nr, в команде sort, означает сортировку в порядке убывания). Этот шаблон может с успехом использоваться при анализе файлов системного журнала, словарей и везде, где необходимо проанализировать лексическую структуру документа.

Пример 12-8. Частота встречаемости отдельных слов

Команда expand преобразует символы табуляции в пробелы. Часто используется в конвейерной обработке текста.

Команда unexpand преобразует пробелы в символы табуляции. Т.е. она является обратной по отношению к команде expand.

Предназначена для извлечения отдельных полей из текстовых файлов. Напоминает команду print $N в awk, но более ограничена в своих возможностях. В простейших случаях может быть неплохой заменой awk в сценариях. Особую значимость, для команды cut, представляют ключи -d (разделитель полей) и -f (номер(а) поля(ей)).

Использование команды cut для получения списка смонтированных файловых систем:

Использование команды cut для получения версии ОС и ядра:

Использование команды cut для извлечения заголовков сообщений из электронных писем:

Использование команды cut при разборе текстового файла:

cut -d ‘ ‘ -f2,3 filename эквивалентно awk -F'[ ]’ ‘< print $2, $3 >‘ filename

Используется для объединения нескольких файлов в один многоколоночный файл.

Может рассматриваться как команда, родственная команде paste. Эта мощная утилита позволяет объединять два файла по общему полю, что представляет собой упрощенную версию реляционной базы данных.

Команда join оперирует только двумя файлами и объедияет только те строки, которые имеют общее поле (обычно числовое), результат объединения выводится на stdout. Объединяемые файлы должны быть отсортированы по ключевому полю.

На выходе ключевое поле встречается только один раз.

Выводит начальные строки из файла на stdout (по-умолчанию — 10 строк, но это число можно задать иным). Эта команда имеет ряд интересных ключей.

Пример 12-9. Какие из файлов являются сценариями?

Пример 12-10. Генератор 10-значных случайных чисел

Выводит последние строки из файла на stdout (по-умолчанию — 10 строк). Обычно используется для мониторинга системных журналов. Ключ -f, позволяет вести непрерывное наблюдение за добавляемыми строками в файл.

Пример 12-11. Мониторинг системного журнала с помощью tail

Многоцелевая поисковая утилита, использующая регулярные выражения. Изначально это была команда в древнем строчном редакторе ed, g/re/p, что означает — global — regular expression — print .

Поиск участков текста в файле(ах), соответствующих шаблону pattern, где pattern может быть как обычной строкой, так и регулярным выражением.

Если файл(ы) для поиска не задан, то команда grep работает как фильтр для устройства stdout, например в конвейере.

-i — выполняется поиск без учета регистра символов.

-w — поиск совпадений целого слова.

-l — вывод только имен файлов, в которых найдены участки, совпадающие с заданным образцом/шаблоном, без вывода совпадающих строк.

-r — (рекурсивный поиск) поиск выполняется в текущем каталоге и всех вложенных подкаталогах.

The -n option lists the matching lines, together with line numbers.

-v (или —invert-match) — выводит только строки, не содержащие совпадений.

-c ( —count) — выводит количество совпадений без вывода самих совпадений.

Если grep вызывается для поиска по группе файлов, то вывод будет содержать указание на имена файлов, в которых найдены совпадения.

Для того, чтобы заставить grep выводить имя файла, когда поиск производится по одному-единственному файлу, достаточно указать устройство /dev/null в качестве второго файла.

Если совпадение было найдено, то grep возвращает код завершения — 0, это может оказаться полезным при выполнении поиска в условных операторах ( в таких случаях особый интерес может представлять ключ -q, который подавляет вывод).

Пример 29-6 — пример поиска заданного образца в системном журнале, с помощью grep.

Пример 12-12. Сценарий-эмулятор «grep»

egrep — то же самое, что и grep -E. Эта команда использует несколько отличающийся, расширенный набор регулярных выражений, что позволяет выполнять поиск более гибко.

fgrep — то же самое, что и grep -F. Эта команда выполняет поиск строк символов (не регулярных выражений), что несколько увеличивает скорость поиска.

Утилита agrep имеет более широкие возможности поиска приблизительных совпадений. Образец поиска может отличаться от найденной строки на указанное число символов.

Для поиска по сжатым файлам следует использовать утилиты zgrep, zegrep или zfgrep. Они с успехом могут использоваться и для не сжатых файлов, но в этом случае они уступают в скорости обычным grep, egrep и fgrep. Они очень удобны при выполнении поиска по смешенному набору файлов — когда одни файлы сжаты, а другие нет.

Для поиска по bzip-файлам используйте bzgrep.

Команда look очень похожа на grep, и предназначена для поиска по «словарям» — отсортированным файлам. По-умолчанию, поиск выполняется в файле /usr/dict/words, но может быть указан и другой словарь.

Пример 12-13. Поиск слов в словаре

Скриптовые языки, специально разработанные для анализа текстовых данных.

Неинтерактивный «потоковый редактор» . Широко используется в сценариях на языке командной оболочки.

Утилита контекстного поиска и преобразования текста, замечательный инструмент для извлечения и/или обработки полей (колонок) в структурированных текстовых файлах. Синтаксис awk напоминает язык C.

wc — «word count» , счетчик слов в файле или в потоке:

wc -w подсчитывает только слова.

wc -l подсчитывает только строки.

wc -c подсчитывает только символы.

wc -L возвращает длину наибольшей строки.

Подсчет количества .txt -файлов в текущем каталоге с помощью wc:

Подсчет общего размера файлов, чьи имена начинаются с символов, в диапазоне d — h

От переводчика: в случае, если у вас локаль отлична от «C», то вышеприведенная команда может не дать результата, поскольку wc вернет не слово «total», в конце вывода, а «итого». Тогда можно попробовать несколько измененный вариант:

Использование wc для подсчета количества вхождений слова «Linux» в основной исходный файл с текстом этого руководства.

Отдельные команды располагают функциональностью wc в виде своих ключей.

Замена одних символов на другие.

В отдельных случаях символы необходимо заключать в кавычки и/или квадратные скобки. Кавычки предотвращают интерпретацию специальных символов командной оболочкой. Квадратные скобки должны заключаться в кавычки.

Команда tr «A-Z» «*» tr A-Z \* filename на звездочки (вывод производится на stdout). В некоторых системах этот вариант может оказаться неработоспособным, тогда попробуйте tr A-Z ‘[**]’.

Ключ -d удаляет символы из заданного диапазона.

Ключ —squeeze-repeats ( -s) удалит все повторяющиеся последовательности символов. Может использоваться для удаления лишних пробельных символов.

Ключ -c «complement» заменит символы в соответствии с шаблоном. Этот ключ воздействует только на те символы, которые НЕ соответствуют заданному шаблону.

Обратите внимание: команда tr корректно распознает символьные классы POSIX. [1]

Пример 12-14. toupper: Преобразование символов в верхний регистр.

Пример 12-15. lowercase: Изменение имен всех файлов в текущем каталоге в нижний регистр.

Пример 12-16. du: Преобразование текстового файла из формата DOS в формат UNIX.

Пример 12-17. rot13: Сверхслабое шифрование по алгоритму rot13.

Пример 12-18. Более «сложный» шифр

Различные версии tr

Утилита tr имеет две, исторически сложившиеся, версии. BSD-версия не использует квадратные скобки ( tr a-z A-Z), в то время как SysV-версия использует их ( tr ‘[a-z]’ ‘[A-Z]’). GNU-версия утилиты tr напоминает версию BSD, но диапазоны символов обязательно должны заключаться в квадратные скобки.

Выравнивает текст по ширине, разрывая, если это необходимо, слова. Особый интерес представляет ключ -s, который производит перенос строк по пробелам, стараясь не разрывать слова. (см. Пример 12-19 и Пример A-2).

Очень простая утилита форматирования текста, чаще всего используемая как фильтр в конвейерах для того, чтобы выполнить «перенос» длинных строк текста.

Пример 12-19. Отформатированный список файлов.

Очень мощной альтернативой утилите fmt, является утилита par (автор Kamil Toman), которую вы сможете найти на http://www.cs.berkeley.edu/

Эта утилита с обманчивым названием удаляет из входного потока символы обратной подачи бумаги (код ESC 7). Она так же пытается заменить пробелы на табуляции. Основная область применения утилиты col — фильтрация вывода отдельных утилит обработки текста, таких как groff и tbl.

Форматирование по столбцам. Эта утилита преобразует текст, например какой либо список, в табличное, более «удобочитаемое» , представление, вставляя символы табуляции по мере необходимости.

Пример 12-20. Пример форматирования списка файлов в каталоге

Утилита удаления колонок. Удаляет колонки (столбцы) сиволов из файла и выводит результат на stdout. colrm 2 4 filename.

Если файл содержит символы табуляции или непечатаемые символы, то результат может получиться самым неожиданным. В таких случаях, как правило, утилиту colrm, в конвейере, окружают командами expand и unexpand.

Нумерует строки в файле. nl filename — выведет файл filename на stdout, и в начале каждой строки вставит ее порядковый номер, счет начинается с первой непустой строки. Если файл не указывается, то принимается ввод со stdin.

Вывод команды nl очень напоминает cat -n, однако, по-умолчанию nl не нумерует пустые строки.

Пример 12-21. nl: Самонумерующийся сценарий.

Подготовка файла к печати. Утилита производит разбивку файла на страницы, приводя его в вид пригодный для печати или для вывода на экран. Разнообразные ключи позволяют выполнять различные манипуляции над строками и колонками, соединять строки, устанавливать поля, нумеровать строки, добавлять колонтитулы и многое, многое другое. Утилита pr соединяет в себе функциональность таких команд, как nl, paste, fold, column и expand.

pr -o 5 —width=65 fileZZZ | more — выдаст хорошо оформленное и разбитое на страницы содержимое файла fileZZZ.

Хочу особо отметить ключ -d, который выводит строки с двойным интервалом (тот же эффект, что и sed -G).

GNU утилита, предназначена для нужд локализации и перевода сообщений программ, выводимых на экран, на язык пользователя. Не смотря на то, что это актуально, прежде всего, для программ на языке C, тем не менее gettext с успехом может использоваться в сценариях командной оболочки для тех же целей. См. info page.

Утилита преобразования текста из одной кодировки в другую. В основном используется для нужд локализации.

Может рассматриваться как разновилность утилиты iconv, описанной выше. Универсальная утилита для преобразования текстовой информации в различные кодировки.

TeX и Postscript — языки разметки текста, используемые для подготовки текста к печати или выводу на экран.

TeX — это сложная система подготовки к печати, разработанная Дональдом Кнутом (Donald Knuth). Эту утилиту удобнее использовать внутри сценария, чем в командной строке, поскольку в сценарии проще один раз записать все необходимые параметры, передаваемые утилите, для получения необходимого результата.

Ghostscript ( gs) — это GPL-версия интерпретатора Postscript.

groff — это еще один язык разметки текста и форматированного вывода. Является расширенной GNU-версией пакета roff/troff в UNIX-системах.

tbl — утилита обработки таблиц, должна рассматриваться как составная часть groff, так как ее задачей является преобразование таблиц в команды groff.

eqn — утилита преобразования математических выражений в команды groff.

lex — утилита лексического разбора текста. В Linux-системах заменена на свободно распространяемую утилиту flex.

yacc — утилита для создания синтаксических анализаторов, на основе набора грамматик, задаваемых разработчиком. В Linux-системах, эта утилита заменена на свободно распространяемую утилиту bison.

Примечания

Это верно только для GNU-версии команды tr, поведение этой команды, в коммерческих UNIX-системах, может несколько отличаться.

Источник

Читайте также:  Python upgrade pip linux
Оцените статью