Строго говоря, не нолики и единички, это упрощение модели, а наличие и отсутствие напряжения. 1 и 0, форма представления на котором написана программа еще нужно перевести в последовательный понятный машинный код, т.е. преобразовать. И только после DSP будет просчитывать. Затем просчитанный результат преобразовать обратно, согласно задаче.
... и добавил:NSb-2, не ну это же не та программа которая считывается процем так или иначе, КОДА там в байтах нет.. ни на памяти ни как... программа как вселенское предназначение этих микросхем разве что) типа кошка запрограммирована на ловлю мышей, кем-то. но это усё лирика..
оно просто так сделано, если в часах пару шестеренок друг об друга трутся, ты же это программой не назовешь) а вот возможность выполнять произвольный код, даже в механическом компе.. это уже код..
а вот ДСП может программироваться, без программы это вообще мёртвые куски кремния. и прошивка в те же звуковухи - software upgrade. софтину обновляют, в железке.. ее функционал может поменяться.. так что это программа, очевидно, но выполняется она просто не в компе. цифровая обработка..
можно назвать ее софтом но не для компа.. а что считать компом? всё где есть проц и память? или комп должен обязательно быть с клавой и монитором и тд, то есть формально. субъективно.
вот УАД например чем считать... обработкой в железе, или софте? плагин-то на компе, ускорение в плате уада. формально чисто цифровая вещь. мало того. когда плату воткнули в комп, она стала частью компа?.... как хошь так и трактуй
в принципе и комп это железо
кстати забавно с лелем. это эффект обработки (аудио), и он цифровой. но это не цифровая обработка))) данные ведь в нем не обрабатываются, не претерпевают изменения, оцифровались-выплюнулись наружу. в исходном виде... цифра сама не трогается, идут только деградации в аналоговом домейне при оцифровке и обратно, и задержка во времени для нас (опять же аналоговая величина, время, субъективное для человека)) а байты сами не меняются ни фига. так что цифровой обработки не происходит, хотя эт эффект обработки, и он цифровой
мозг можно сломать если подумать хорошо.
Ну вот ты опять мыслишь глобально, выкидывая простейшие кирпичики, любая программа последовательно разбивается на такие простые кирпичики и выполняется друг за другом.
Но, учитывая скорость выполнения задачи, ты как сторонний наблюдатель "видишь" процесс как мгновенный.
А если еще распараллеленый процесс, так убыстряется решение на каждое активное ядро.
По этому во множестве применений так важна тактовая частота и прочие вспомогательные.
Второй момент, задачи могут быть примитивными, их не нужно объединять в кластеры и серии, как скажем DAW с широким функционалом и множеством операций.
По этому вполне хватает на уровне примитивного цикла. Тот же делей с ограниченными функциями.
Иное дело что языки программирования позволяют работать сразу с массивом, не выписывая каждую буковку. Но это не меняет факта того, что процессор считает одну задачу за такт.
Представь написать программу сразу в машинном коде. Даж не знаю, сколько тебе понадобится лет написать обычный редактор