Как удалить первые n строк и последнюю строку файла с помощью команд оболочки?
У меня есть файл с именем Element_query содержащий результат запроса:
Я хочу удалить 1-ю строку и последнюю строку с помощью команды оболочки.
Использование GNU sed :
Как это работает :
-i отредактируйте сам файл. Вы также можете удалить эту опцию и перенаправить вывод на новый файл или другую команду, если хотите.
1d удаляет первую строку ( 1 только для первой строки, d для ее удаления)
$d удаляет последнюю строку ( $ только для последней строки, d для ее удаления)
Идти дальше :
Вы также можете удалить диапазон. Например, 1,5d первые 5 строк.
Вы также можете удалить каждую строку, начинающуюся с SQL> с помощью оператора /^SQL> /d
Вы можете удалить каждую пустую строку с помощью /^$/d
Наконец, вы можете объединить любой из операторов, разделив их на statement1;statement2;satement3;. ( statement1;statement2;satement3;. ) или указав их отдельно в командной строке ( -e ‘statement1’ -e ‘statement 2’ . )
глава; глава
С помощью вышеизложенного вы можете указать первое число строк, которые должны отделяться от головки вывода с первой head командой, и количество строк для записи в outfile со вторым. Он также будет делать это быстрее, чем sed – особенно когда вход большой – несмотря на то, что требуется два вызова. Если sed определенно должен быть предпочтительным, в том случае, если не является обычным, lseekable файлом, потому что это обычно не работает так, как предполагалось в этом случае, но sed может обрабатывать все выходные модификации в одном сценарии.
С head GNU вы можете использовать отрицательную форму для [num] во второй команде. В этом случае следующая команда будет отделять первую и последнюю строки от ввода:
ИЛИ с помощью POSIX sed :
Скажем, например, я читал ввод из 20 строк, и я хотел снять первые 3 и последние 7. Если бы я решил сделать это w / sed , я бы сделал это с хвостовым буфером. Сначала я добавлю три и семь для общего количества строк в десять, а затем выполните:
Это пример, который выводит первые 3 и последние 7 строк из ввода. Идея состоит в том, что вы можете буферизировать столько строк, сколько хотите, чтобы вырезать из хвоста ввода в пространстве шаблонов в стеке, но только P rint – первое из них для каждой строки, втянутой в.
В строках 1,10 sed P ничего не происходит, потому что для каждого из них он стекает в пространстве шаблонов по строкам в цикле ранжирования b .
На 3-й строке все стеки sed находятся в элементе – и поэтому первые 3 строки удаляются с выхода одним махом.
Когда sed достигает последней строки ввода и пытается вытащить N ext, он попадает в EOF и полностью прекращает обработку. Но в то время пространство шаблонов содержит все строки 14,20 – ни один из которых до сих пор не был проиндексирован и никогда не был.
На каждой другой строке sed P rints только до первого встречающегося \n ewline в пространстве шаблонов, а D eletes – до начала нового цикла с остатком – или следующих 6 строк ввода. 7-я строка добавляется снова в стек с командой N ext в новом цикле.
Итак, выход seq (который имеет 20 последовательно пронумерованных строк) , sed печатает только:
Это становится проблематичным, когда количество строк, которые вы хотите вырезать из хвоста ввода, велико – потому что производительность sed прямо пропорциональна размеру его пространства шаблонов. Тем не менее, во многих случаях это жизнеспособное решение – и POSIX специфицирует пространство шаблонов sed чтобы обрабатывать как минимум 4kb до перебора.
Я не буду отвечать, как удалить несколько строк. Я собираюсь атаковать проблему следующим образом:
grep -v ‘#SQL>’ Element_query >outfile
Вместо подсчета строк он исключает команды SQL, распознавая подсказки. Это решение затем может быть обобщено для других выходных файлов SQL-сессий с большим количеством команд, чем два.
ed является «стандартным текстовым редактором» и должен быть доступен в системах, не имеющих GNU sed . Он был первоначально разработан как текстовый редактор, но он хорошо подходит для сценариев.
1d удаляет первую строку файла, $d (цитируется так, что оболочка не считает, что это переменная) удаляет последнюю строку, w записывает файл и q завершает работу. printf здесь используется для форматирования команд для ed – для каждого должна следовать новая строка; есть, конечно, другие способы этого.
Существует несколько способов удалить ведущие и завершающие строки из файла.
Вы можете использовать awk поскольку он обрабатывает как соответствие шаблонов, так и подсчет строк,
Вы можете использовать grep -v для исключения строк, которые вам не нужны по шаблону, и вы можете сопоставлять несколько шаблонов с использованием опции -E ,
Вы можете использовать head и tail чтобы обрезать определенные количества линий,
Вы можете использовать vi/vim и удалить первую и последнюю строки,
вы можете использовать скрипт perl, пропустить первую строку, сохранить каждую строку, распечатать, когда вы получите следующую строку,
Вам будет намного лучше обслуживать, отсекая SQL-команды. Вы можете сделать это двумя способами:
Если вы абсолютно уверены, что последовательность « SQL> » не встречается нигде в выходе,
Если вы не уверены,
Вторая версия медленнее, но точнее: она будет игнорировать строки, начинающиеся с «SQL>» и заканчивающиеся точкой с запятой, которые, похоже, описывают строки, которые вы хотите устранить.
Однако было бы лучше не добавлять этот дополнительный вывод в файл. В большинстве систем SQL есть способ сделать это. Я не слишком разбираюсь в Oracle, но, возможно, этот ответ может оказаться полезным.
Вы можете выбрать линии между диапазоном в awk (это предполагает, что вы знаете, сколько строк есть):
Если вы не знаете, сколько строк есть, вы можете рассчитать его на лету, используя grep (обратите внимание, что это не будет считать пустые строки, используйте grep -c » file чтобы подсчитать их):
Попробуйте это решение:
настройка
Вы можете легко адаптировать его для удаления n первых строк, изменяющих +2 tail ; или удалить последние n строк, изменяющих -1 head .
: перенаправляет содержимое inputfile на stdin awk
> outputfile : перенаправляет содержимое stdout awk в outputfile
NR>1 : выполняет следующие действия только в том случае, если номер обрабатываемой записи больше 1
: печатает содержимое переменной r
: присваивает содержимое обрабатываемой записи переменной r
Поэтому при первом выполнении awk скрипта первый блок действий не выполняется, тогда как выполняется второй блок действий, а содержимое записи назначается переменной r ; при втором выполнении выполняется первый блок действий, и печатается содержимое переменной r (поэтому печатается предыдущая запись); это приводит к печати каждой обрабатываемой линии, но первой и последней.
Источник
12.4. Команды обработки текста
Сортирует содержимое файла, часто используется как промежуточный фильтр в конвейерах. Эта команда сортирует поток текста в порядке убывания или возрастания, в зависимости от заданных опций. Ключ -m используется для сортировки и объединения входных файлов. В странице info перечислено большое количество возможных вариантов ключей. См. Пример 10-9, Пример 10-10 и Пример A-9.
Топологическая сортировка, считывает пары строк, разделенных пробельными символами, и выполняет сортировку, в зависимости от заданного шаблона.
Удаляет повторяющиеся строки из отсортированного файла. Эту команду часто можно встретить в конвейере с командой sort.
Ключ -c выводит количество повторяющихся строк.
Команда sort INPUTFILE | uniq -c | sort -nr выводит статистику встречаемости строк в файле INPUTFILE (ключ -nr, в команде sort, означает сортировку в порядке убывания). Этот шаблон может с успехом использоваться при анализе файлов системного журнала, словарей и везде, где необходимо проанализировать лексическую структуру документа.
Пример 12-8. Частота встречаемости отдельных слов
Команда expand преобразует символы табуляции в пробелы. Часто используется в конвейерной обработке текста.
Команда unexpand преобразует пробелы в символы табуляции. Т.е. она является обратной по отношению к команде expand.
Предназначена для извлечения отдельных полей из текстовых файлов. Напоминает команду print $N в awk, но более ограничена в своих возможностях. В простейших случаях может быть неплохой заменой awk в сценариях. Особую значимость, для команды cut, представляют ключи -d (разделитель полей) и -f (номер(а) поля(ей)).
Использование команды cut для получения списка смонтированных файловых систем:
Использование команды cut для получения версии ОС и ядра:
Использование команды cut для извлечения заголовков сообщений из электронных писем:
Использование команды cut при разборе текстового файла:
Используется для объединения нескольких файлов в один многоколоночный файл.
Может рассматриваться как команда, родственная команде paste. Эта мощная утилита позволяет объединять два файла по общему полю, что представляет собой упрощенную версию реляционной базы данных.
Команда join оперирует только двумя файлами и объедияет только те строки, которые имеют общее поле (обычно числовое), результат объединения выводится на stdout. Объединяемые файлы должны быть отсортированы по ключевому полю.
На выходе ключевое поле встречается только один раз.
Выводит начальные строки из файла на stdout (по-умолчанию — 10 строк, но это число можно задать иным). Эта команда имеет ряд интересных ключей.
Пример 12-9. Какие из файлов являются сценариями?
Пример 12-10. Генератор 10-значных случайных чисел
Выводит последние строки из файла на stdout (по-умолчанию — 10 строк). Обычно используется для мониторинга системных журналов. Ключ -f, позволяет вести непрерывное наблюдение за добавляемыми строками в файл.
Пример 12-11. Мониторинг системного журнала с помощью tail
Многоцелевая поисковая утилита, использующая регулярные выражения. Изначально это была команда в древнем строчном редакторе ed, g/re/p, что означает — global — regular expression — print .
Поиск участков текста в файле(ах), соответствующих шаблону pattern, где pattern может быть как обычной строкой, так и регулярным выражением.
Если файл(ы) для поиска не задан, то команда grep работает как фильтр для устройства stdout, например в конвейере.
-i — выполняется поиск без учета регистра символов.
-w — поиск совпадений целого слова.
-l — вывод только имен файлов, в которых найдены участки, совпадающие с заданным образцом/шаблоном, без вывода совпадающих строк.
-r — (рекурсивный поиск) поиск выполняется в текущем каталоге и всех вложенных подкаталогах.
The -n option lists the matching lines, together with line numbers.
-v (или —invert-match) — выводит только строки, не содержащие совпадений.
-c ( —count) — выводит количество совпадений без вывода самих совпадений.
Если grep вызывается для поиска по группе файлов, то вывод будет содержать указание на имена файлов, в которых найдены совпадения.
Для того, чтобы заставить grep выводить имя файла, когда поиск производится по одному-единственному файлу, достаточно указать устройство /dev/null в качестве второго файла.
Если совпадение было найдено, то grep возвращает код завершения — 0, это может оказаться полезным при выполнении поиска в условных операторах ( в таких случаях особый интерес может представлять ключ -q, который подавляет вывод).
Пример 29-6 — пример поиска заданного образца в системном журнале, с помощью grep.
Пример 12-12. Сценарий-эмулятор «grep»
egrep — то же самое, что и grep -E. Эта команда использует несколько отличающийся, расширенный набор регулярных выражений, что позволяет выполнять поиск более гибко.
fgrep — то же самое, что и grep -F. Эта команда выполняет поиск строк символов (не регулярных выражений), что несколько увеличивает скорость поиска.
Утилита agrep имеет более широкие возможности поиска приблизительных совпадений. Образец поиска может отличаться от найденной строки на указанное число символов.
Для поиска по сжатым файлам следует использовать утилиты zgrep, zegrep или zfgrep. Они с успехом могут использоваться и для не сжатых файлов, но в этом случае они уступают в скорости обычным grep, egrep и fgrep. Они очень удобны при выполнении поиска по смешенному набору файлов — когда одни файлы сжаты, а другие нет.
Для поиска по bzip-файлам используйте bzgrep.
Команда look очень похожа на grep, и предназначена для поиска по «словарям» — отсортированным файлам. По-умолчанию, поиск выполняется в файле /usr/dict/words, но может быть указан и другой словарь.
Пример 12-13. Поиск слов в словаре
Скриптовые языки, специально разработанные для анализа текстовых данных.
Неинтерактивный «потоковый редактор» . Широко используется в сценариях на языке командной оболочки.
Утилита контекстного поиска и преобразования текста, замечательный инструмент для извлечения и/или обработки полей (колонок) в структурированных текстовых файлах. Синтаксис awk напоминает язык C.
wc — «word count» , счетчик слов в файле или в потоке:
wc -w подсчитывает только слова.
wc -l подсчитывает только строки.
wc -c подсчитывает только символы.
wc -L возвращает длину наибольшей строки.
Подсчет количества .txt -файлов в текущем каталоге с помощью wc:
Подсчет общего размера файлов, чьи имена начинаются с символов, в диапазоне d — h
От переводчика: в случае, если у вас локаль отлична от «C», то вышеприведенная команда может не дать результата, поскольку wc вернет не слово «total», в конце вывода, а «итого». Тогда можно попробовать несколько измененный вариант:
Использование wc для подсчета количества вхождений слова «Linux» в основной исходный файл с текстом этого руководства.
Отдельные команды располагают функциональностью wc в виде своих ключей.
Замена одних символов на другие.
В отдельных случаях символы необходимо заключать в кавычки и/или квадратные скобки. Кавычки предотвращают интерпретацию специальных символов командной оболочкой. Квадратные скобки должны заключаться в кавычки.
Команда tr «A-Z» «*» tr A-Z \* filename на звездочки (вывод производится на stdout). В некоторых системах этот вариант может оказаться неработоспособным, тогда попробуйте tr A-Z ‘[**]’.
Ключ -d удаляет символы из заданного диапазона.
Ключ —squeeze-repeats ( -s) удалит все повторяющиеся последовательности символов. Может использоваться для удаления лишних пробельных символов.
Ключ -c «complement» заменит символы в соответствии с шаблоном. Этот ключ воздействует только на те символы, которые НЕ соответствуют заданному шаблону.
Обратите внимание: команда tr корректно распознает символьные классы POSIX. [1]
Пример 12-14. toupper: Преобразование символов в верхний регистр.
Пример 12-15. lowercase: Изменение имен всех файлов в текущем каталоге в нижний регистр.
Пример 12-16. du: Преобразование текстового файла из формата DOS в формат UNIX.
Пример 12-17. rot13: Сверхслабое шифрование по алгоритму rot13.
Пример 12-18. Более «сложный» шифр
Различные версии tr
Утилита tr имеет две, исторически сложившиеся, версии. BSD-версия не использует квадратные скобки ( tr a-z A-Z), в то время как SysV-версия использует их ( tr ‘[a-z]’ ‘[A-Z]’). GNU-версия утилиты tr напоминает версию BSD, но диапазоны символов обязательно должны заключаться в квадратные скобки.
Выравнивает текст по ширине, разрывая, если это необходимо, слова. Особый интерес представляет ключ -s, который производит перенос строк по пробелам, стараясь не разрывать слова. (см. Пример 12-19 и Пример A-2).
Очень простая утилита форматирования текста, чаще всего используемая как фильтр в конвейерах для того, чтобы выполнить «перенос» длинных строк текста.
Пример 12-19. Отформатированный список файлов.
Очень мощной альтернативой утилите fmt, является утилита par (автор Kamil Toman), которую вы сможете найти на http://www.cs.berkeley.edu/
Эта утилита с обманчивым названием удаляет из входного потока символы обратной подачи бумаги (код ESC 7). Она так же пытается заменить пробелы на табуляции. Основная область применения утилиты col — фильтрация вывода отдельных утилит обработки текста, таких как groff и tbl.
Форматирование по столбцам. Эта утилита преобразует текст, например какой либо список, в табличное, более «удобочитаемое» , представление, вставляя символы табуляции по мере необходимости.
Пример 12-20. Пример форматирования списка файлов в каталоге
Утилита удаления колонок. Удаляет колонки (столбцы) сиволов из файла и выводит результат на stdout. colrm 2 4 filename.
Если файл содержит символы табуляции или непечатаемые символы, то результат может получиться самым неожиданным. В таких случаях, как правило, утилиту colrm, в конвейере, окружают командами expand и unexpand.
Нумерует строки в файле. nl filename — выведет файл filename на stdout, и в начале каждой строки вставит ее порядковый номер, счет начинается с первой непустой строки. Если файл не указывается, то принимается ввод со stdin.
Вывод команды nl очень напоминает cat -n, однако, по-умолчанию nl не нумерует пустые строки.
Пример 12-21. nl: Самонумерующийся сценарий.
Подготовка файла к печати. Утилита производит разбивку файла на страницы, приводя его в вид пригодный для печати или для вывода на экран. Разнообразные ключи позволяют выполнять различные манипуляции над строками и колонками, соединять строки, устанавливать поля, нумеровать строки, добавлять колонтитулы и многое, многое другое. Утилита pr соединяет в себе функциональность таких команд, как nl, paste, fold, column и expand.
pr -o 5 —width=65 fileZZZ | more — выдаст хорошо оформленное и разбитое на страницы содержимое файла fileZZZ.
Хочу особо отметить ключ -d, который выводит строки с двойным интервалом (тот же эффект, что и sed -G).
GNU утилита, предназначена для нужд локализации и перевода сообщений программ, выводимых на экран, на язык пользователя. Не смотря на то, что это актуально, прежде всего, для программ на языке C, тем не менее gettext с успехом может использоваться в сценариях командной оболочки для тех же целей. См. info page.
Утилита преобразования текста из одной кодировки в другую. В основном используется для нужд локализации.
Может рассматриваться как разновилность утилиты iconv, описанной выше. Универсальная утилита для преобразования текстовой информации в различные кодировки.
TeX и Postscript — языки разметки текста, используемые для подготовки текста к печати или выводу на экран.
TeX — это сложная система подготовки к печати, разработанная Дональдом Кнутом (Donald Knuth). Эту утилиту удобнее использовать внутри сценария, чем в командной строке, поскольку в сценарии проще один раз записать все необходимые параметры, передаваемые утилите, для получения необходимого результата.
Ghostscript ( gs) — это GPL-версия интерпретатора Postscript.
groff — это еще один язык разметки текста и форматированного вывода. Является расширенной GNU-версией пакета roff/troff в UNIX-системах.
tbl — утилита обработки таблиц, должна рассматриваться как составная часть groff, так как ее задачей является преобразование таблиц в команды groff.
eqn — утилита преобразования математических выражений в команды groff.
lex — утилита лексического разбора текста. В Linux-системах заменена на свободно распространяемую утилиту flex.
yacc — утилита для создания синтаксических анализаторов, на основе набора грамматик, задаваемых разработчиком. В Linux-системах, эта утилита заменена на свободно распространяемую утилиту bison.
Примечания
Это верно только для GNU-версии команды tr, поведение этой команды, в коммерческих UNIX-системах, может несколько отличаться.