Из того, что сейчас надёжно делают нейронки на базе GPT версий 3.5 или 4.0:
составление короткой версии текста, суммаризация;
переписывание чужих новостных заметок (рерайт);
составление сравнительных табличек и чеклистов (но придётся перепроверять достоверность);
объяснение сложных вещей простым языком — как минимум найти интересные приёмы для объяснения;
пугать авторов — «Вот как с этой задачей справилась нейросеть. Если у тебя текст будет хуже, зачем мне ты?».
Для нас сейчас основная проблема нейросетей — достоверность. Можно поручить нейронке написать хоть целую статью, она напишет. Проблема в том, что там на полном серьёзе может быть написана полная дичь. Но написано будет так убедительно, что ты не заметишь подвоха, если не разбираешься в теме. Поэтому за нейронкой нужно проверять буквально всё. И в итоге конкретно сегодня, 16 апреля 2023 года, большую часть оригинальных текстов редактору проще написать самостоятельно. Но спросите снова через неделю.
Вот лично мой прокол. Для одной дури в журнале «Код» я хотел, чтобы нейронка написала мне фразы в стиле Льва Толстого, которые подошли бы к работе айтишника. Она написала что‑то невнятное, поэтому я попросил не оригинальные фразы, а цитаты. Она написала какие‑то красивые слова в кавычках. Непонятно, насколько эти слова являются цитатами, поэтому я попросил привести источники. Нейронка выдала новую пачку цитат с источниками. Я посмотрел по диагонали и отнёс корректору. Её ответ: «У Толстого нет не только этих цитат, но и этих произведений».
Получается, что нужно было либо сажать студента перепроверять нейронку, либо сажать студента искать цитаты Толстого. Первое будет быстрее, но на выходе все цитаты могут оказаться недостоверными, и мы потеряем время. Поэтому разумнее пойти по второму пути и решить задачу силами студента, а не нейросети.
Это касается только профессиональной редакторской работы — например для бренд‑медиа или рекламы. А для менее ответственных задач сейчас нейросети работают на ура. Водянистые посты писать — самое то.