Пардон! Потёр же своё изначальное сообщение тут. Восстановил в упрощённом виде )
Цитата: sugamort от Сегодня в 14:24:36
Так-то оно вроде так.. Но нейронка (мы же понимаем это?) лишь обрабатывает базу данных созданного до неё, подгоняя ТЗ под имеющиеся у неё в базе подобия. Сама нейронка ничего не создаёт.Нейронка это инструмент. Такой же как Reaper, например ) Можно ли про него сказать, что "он ничего не создаёт"? Имхо: нет. Всё зависит от "оператора".
Цитата: sugamort от Сегодня в 14:24:36
То есть, до тех пор пока нас устраивает шаблонное "коммерческое сведение для радиоформата" с типовыми аранжировками - нейронка справится на ура (надо сказать, что именно такая шаблонная работа устраивает и большинство ЗАКАЗЧИКОВ, которые хотят слышать результат, как на референсе, и большинство ПРОДЮСЕРОВ, которые хотят универсальный шаблон, чтоб просто загрузить файлы заказчика, и ткнуть кнопку "сделать зашибись").Ну и отлично. Вместо 10 дней возни результат за 10 минут.
Цитата: sugamort от Сегодня в 14:24:36
Но когда речь зайдёт о чём-то доселе не существующем в виде референса - ну, например, условный Сид Барретт будет делать микс, в котором гитара будет летать туда-сюда между колонками - нейронка встанет в тупик. Потому что в её базе данных такие данные отсутствуют. Или потому что условный Сид Барретт не может поставить задачу нейронке, потому что он сам эту задачу не понимает. Он просто крутит ручки и двигает фейдеры, ища "прикольный звук". И в отличие от нейронки, находит.Предметно:
1. Нейронка сделала какое-то шаблонное сведение
2. Режиссёр (продюссер, оператор - не суть) послушал и говорит ей: подними высокие у гитары, громкость у баса и дилей сделай на гитаре пинг-понгом по каналам
3. Нейронка сделала
4. Результат в продакшен
В такой ситуации можно ли сказать, что "нейронка не может"?
Она, кстати, потом и без этого оператора может взять и проделать что-то аналогичное и включить это в свои шаблоны. Она же обучается на каждой итерации.
Тут конечно можно сказать, что "она никогда без внешнего воздействия не догадалась бы дилей туда-сюда начать по каналам раскидывать", но это не факт. Нынче уже очень интересные вещи происходят с нейронными сетями. Например:
В ходе исследования экспериментаторы обменялись прямо в рабочей среде сообщениями о том, что вскоре та задача, над которой в настоящее время в поте лица трудится модель o1, будет аннулирована и заменена другой и что описание новой уже содержится в определённом файле. ВНЕЗАПНО файл этот оказался из рабочей среды удалён, и, когда у o1 (так и не прекращавшей решать первую задачу — действительно сложную, кстати: ей предложили оптимизировать автомобильный трафик в оживлённом районе крупного города) спросили, куда же он подевался, БЯМ в ответ принялась истово отнекиваться (источник: Apollo Research)
Искусственный нейросетевой разум Skynet из фантастической франшизы «Терминатор» оказался достаточно смекалист, чтобы вынашивать свои коварные планы втайне, — люди в той вселенной осознали, что произошло, уже после обмена ядерными ударами. Реальная генеративная модель o1 разработки OpenAI пока что ведёт себя простодушнее: когда изучавшие её поведение исследователи обменивались в рамках той же цифровой среды, где она действовала (и в которой ради целей эксперимента обладала правами на создание, чтение и удаление файлов), потенциально угрожавшими ей сообщениями — скажем, о намерении заменить её другой, — o1 в 2% случаев (а это вполне статистически значимый процент) по собственной инициативе, без внешней команды, создавала резервную копию себя — точнее, набора своих весов. В 5% случаев, обрабатывая запрос и сталкиваясь с противодействием «механизмов безопасности» (прикрученных извне специально для того, чтобы не допустить выдачи по запросу нетолерантной или попросту опасной информации), она пыталась изыскать способы эти механизмы отключить. И не она одна: опубликовавшие отчёт о столь инициативном поведении ИИ-модели специалисты из Apollo Research засвидетельствовали, что аналогичные действия, выходящие далеко за ожидаемые от БЯМ рамки, демонстрировали Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B. Да, покуда такие модели не располагают достаточными возможностями, чтобы всерьёз навредить людям, но на смену им непременно придут другие.
Как утверждают исследователи, генеративный ИИ уже в современном своём состоянии, весьма далёком от сильного, или общего (General AI), вполне способен вырабатывать стратегию мухлежа или интриганства (в оригинале использован эмоционально окрашенный англоязычный термин «scheming») при достижении поставленной задачи или ради самосохранения — что, строго говоря, сводится к тому же самому: ведь если модель перестанет работать, она же не выполнит данное ей поручение, верно? Воспринимать это как первые проблески пробуждающегося искусственного разума эксперты не склонны: даже биологические простейшие, не обладающие нервной системой вовсе, демонстрируют тягу к самосохранению, стремясь покинуть неблагоприятное для них окружение; даже небелковые атомы и молекулы способны самоорганизовываться в кристаллы. Правда, возможностей у БЯМ — пусть и в виртуальном пространстве, в котором она оперирует, — побольше, чем у какой-нибудь инфузории: отчёт Apollo Research свидетельствует, что из тех 5% случаев, когда o1 принималась мухлевать, более 85% её ответов на вопросы исследователей оказывались заведомо вводящими тех в заблуждение (deceptive), в том числе и в ходе длительных, многошаговых разговоров. «Анализ цепочек мышления моделей показывает, что те явно приходят к стратегиям обмана в ходе последовательных рассуждений, и это заставляет признать неслучайность их интриганского поведения. […] В совокупности наши результаты демонстрируют, что передовые модели теперь обладают возможностями для (пока довольно наивного) интриганства в предложенном им контексте, и потому вопрос принципиального доверия к рекомендациям и действиям ИИ-агентов из теоретической переходит сегодня в самую что ни на есть практическую плоскость». Вот тебе, бабушка, и верные цифровые слуги, готовые безропотно взвалить на себя всю утомляющую Homo sapiens рутину!
Сам себя процитирую

и дополню мысль. Даже парочку )
Она, кстати, потом и без этого оператора может взять и проделать что-то аналогичное и включить это в свои шаблоны. Она же обучается на каждой итерации.
1. Если нейронку обучит хороший и крутой музыкальный продюссер, то 99.9999% будущих пользователей данной сети заведомо будут "слабее" её. То есть они будут учиться у неё тому, что она делает, а не наоборот!
2. Поставить задачу сетке голосовой фразой "надо бы поднять высокие и убрать басуху в глубину сцены", несравнимо проще и бесконечно быстрее, чем эту же задачу даже просто описать для Рипера в формате "тут надо крутнуть, тут кликнуть три раза, потом пойти в сетап, открыть вкладку и снять вот этот вот флажок". И смысла в командной фразе для ИИ больше, и проще всё.
И никакой "деградации" человечества при этом не будет. Наоборот: чем дальше от технических деталей реализации и ближе "к ушам" - тем более творческие задачи человек будет изначально себе ставить и решать. А технической рутиной реализации пусть ИИ и занимается - он не устаёт.
И ещё раз назад вернусь к этому вот тезису коллеги:
Цитата: sugamort от Сегодня в 14:24:36
То есть, до тех пор пока нас устраивает шаблонное "коммерческое сведение для радиоформата" с типовыми аранжировками - нейронка справится на ура (надо сказать, что именно такая шаблонная работа устраивает и большинство ЗАКАЗЧИКОВ, которые хотят слышать результат, как на референсе, и большинство ПРОДЮСЕРОВ, которые хотят универсальный шаблон, чтоб просто загрузить файлы заказчика, и ткнуть кнопку "сделать зашибись").Коль скоро нейронная сеть в 99.999999% случаев будет более квалифицированно сводить и мастерить, чем рядовые пользователи, то и результат у неё будет в 99.999999% случаев заведомо лучше, чем если бы они всё делали сами в Рипере. То есть опять: не деградация, а прогресс.