Вкалывают роботы...
Читаю обсуждение gpt5 на одном форуме и вижу такой комментарий:
Поразительное сходство вот с этими словами из РМ:My experience so far is it's gotten much better at tricking me into believing its hallucinations. I fed it some old code and asked for feedback and it gave me a long, very technical, super convincing explanation of how my approach was misaligned with the intended use of the API I was using which at first was very persuasive. It took me about an hour of investigation to realize that will there was a tiny bit of truth to what it was saying (and I did end up making a small change as a result) it was mostly just full of it, and the feedback was essentially useless gibberish.
Такое свойство чатботов возникает как-бы случайно. Когда чатбота настраивают, нанимают целую кучу людей из бедных стран, чтобы те смотрели на варианты ответов чатбота и решали какой вариант правильный. Понятно, что им некогда вчитываться когда начальство требует проверять тысячи ответов в день. В итоге чатбота учат не истину говорить, а искусно обманывать потому что только так чатбот получит максимальное одобрение. Отсюда же склонность чатботов льстить.Будущее учение Противобога, которым, по-видимому, ознаменуется предпоследний этап всемирной истории, построится таким образом, что при минимальном весе частноистинного элемента свет от него будет придавать вид истинности максимуму ложных утверждений. Этим и обусловится то обстоятельство, что это учение будет запутывать человеческое сознание в тенётах лжи прочнее и безвыходнее, чем какое бы то ни было другое.