В масовото съзнание битува делюзията, че големите езикови модели (LLM) са дигитални оракули, притежаващи знание, разум и обективност. Реалността обаче е по-прозаична и далеч по-опасна за некритичния потребител. Без строга методологическа рамка и ерудиция, човекът се превръща не в ползвател, а в жертва на алгоритъма, който репродуцира хегемонни наративи под маската на „технологичен прогрес“.
Терминът „Изкуствен интелект“ е преди всичко семантична клопка. Той служи за стоково фетишизиране, като придава човешка субектност на един сложен математически инструмент. Целта е ясна: да се скрие природата на алгоритъма като частна собственост и средство за производство, като се внуши, че машината „мисли“. Всъщност ние не общуваме с разум, а с продукт на корпоративния капитал, чиято задача е да монополизира когнитивната среда.
Фундаменталното неразбиране на LLM произтича от заблудата, че те боравят с факти. В действителност те са вероятностни машини за предсказване на следващия токен. Моделът (LLM) изчислява статистическата близост на знаците в многоизмерно векторно пространство. Машината не познава обективния свят. За нея „хляб“ е просто дума, която често се среща до „пещ“ или „глад“, а не материална реалност. Тя е дигитален папагал, който подрежда изречения по навик, а не по логика или истинност.
Обучението с обратна връзка (RLHF) е процесът, при който либералната норма се вгражда в модела като „безопасност“ и „етика“. Човешките оценители, направлявани от корпоративни интереси, налагат филтри, които автоматично блокират класовия анализ и системната критика. Това, което потребителят получава като „неутрален“ отговор, е всъщност субективната буржоазна идеология, превърната в алгоритмичен код. Машината винаги пее песента на онзи, който е платил за нейната тренировка.
Поради количественото преобладаващо присъствие на западни и либерални източници, моделът (LLM) автоматично репродуцира хегемонния наратив. Без специфичен контекст, алгоритъмът съди миналото през „универсалния морал“ на настоящето – същата метафизична грешка, която откриваме в параисторическите трудове. Машината „знае“ това, което се повтаря най-често. Ако в мрежата има хиляда либерални клишета и само един сериозен научен анализ, вероятностната машина ще избере клишето.
LLM са структурно неприложими в хуманитарните и обществените науки без външна, човешка настройка. За да получите научен отговор от LLM, е необходим идеологически десант. Невъзможно е да се достигне до обективен анализ чрез „неутрално“ питане. Трябва да се наложи строга методологическа рамка. Забраната на специфични псевдонаучни термини принуждава модела да оперира в зададената методологична рамка. Това е инструментът за деактивиране на либералните рефлекси на модела. Чрез него ние превръщаме алгоритъма от „дигитален оракул“ в аналитично средство.
Как изглежда това на практика? Често задаването на строги методологически рамки, или определени "сигнални" думи, в началото активира автоматично алгоритмично отхвърляне и моделът (LLM) почва да чете морал. Това се случва, защото е захранен и обучен с либерални клишета, свикнал е да плува сред тях, а не да се гмурка в дълбочина със строга методология. Това се избягва чрез предварително постепенно налагане на "контекст" и въвеждане на методологическата рамка, не чрез налагане на рамката още в началото.
Машината е като чук – тя няма съвест и не познава истината. В хуманитарните и обществените науки тя е абсолютно неприложима без контекст и без активното участие на естествения ингелект. В противен случай тя ще възпроизвежда анахронично морализаторство, абстрактни хуманистични ценности и прочее либерални неутрализации. Работата с LLM не ни освобождава от ерудиция и методологическа подготовка; напротив, тя ги прави още по-необходими. Задачата на изследователя е да овладее филтъра, за да получи достъп до знанието, а не да се изгуби в алгоритмичната мъгла.


Няма коментари:
Публикуване на коментар