За BMS, автобус, индустриален, инструментален кабел.

Елон Мъск и екипът на XAI официално стартираха най -новата версия на Grok, Grok3, по време на Livestream. Преди това събитие значително количество свързана информация, съчетана с промоционалния свръх на Мъск 24/7, повиши глобалните очаквания за Grok3 до безпрецедентни нива. Само преди седмица Мъск уверено заяви по време на живо, докато коментира Deepseek R1, "Xai е на път да стартира по -добър AI модел." От представените данни на живо, Grok3 е надминал всички текущи основни модели в показатели за математика, наука и програмиране, като Мъск дори твърди, че Grok3 ще се използва за изчислителни задачи, свързани с мисиите на Mars на SpaceX, предсказвайки „пробиви на нивото на Нобеловата награда в рамките на три години.“ Това обаче в момента са само твърдения на Мъск. След старта тествах най -новата бета версия на Grok3 и поставих въпроса за класическия трик за големи модели: "Кое е по -голямо, 9.11 или 9.9?" За съжаление, без никакви квалификации или маркировки, така нареченият най-умният Grok3 все още не можеше да отговори правилно на този въпрос. Grok3 не успя точно да идентифицира значението на въпроса.
Този тест бързо привлече значително внимание от много приятели и случайно различни подобни тестове в чужбина показаха, че Grok3 се бори с основни въпроси на физиката/математиката като „Коя топка пада първо от наклонената кула на Пиза?“ По този начин тя е хумористично обозначена като „гений, който не желае да отговаря на прости въпроси“.

Grok3 е добър, но не е по-добър от R1 или O1-Pro.
Grok3 изпита „неуспехи“ на много общи тестове за знания на практика. По време на събитието за стартиране на XAI, Мъск демонстрира, използвайки Grok3, за да анализира класовете и ефектите на характера от пътя на играта на изгнание 2, за който той твърди, че играе често, но повечето отговори, предоставени от Grok3, са неправилни. Мъск по време на живия поток не забеляза този очевиден въпрос.
Тази грешка не само предостави допълнителни доказателства за задграничните нетизени, за да се подиграе с Мъск за „намиране на заместител“ в игрите, но също така предизвика значителни опасения относно надеждността на Grok3 в практическите приложения. За такъв „гений“, независимо от действителните му възможности, надеждността му в изключително сложни сценарии на приложение, като задачи за проучване на Марс, остава под съмнение.
Понастоящем много тестери, които са получили достъп до Grok3 преди седмици, и тези, които току-що са тествали възможностите на модела за няколко часа вчера, всички сочат до общо заключение: „Grok3 е добър, но не е по-добър от R1 или O1-Pro“.

Критична перспектива за „прекъсване на nvidia“
В официално представения PPT по време на изданието, Grok3 беше показано, че е „далеч напред“ в арената за чатбот, но тази умело използвани графични техники: вертикалната ос в класацията изброява само резултатите в диапазона на резултатите от 1400-1300, което прави оригиналната разлика от 1% в резултатите от тестовете изглежда изключително значима в тази презентация.

В действителните резултати от оценяването на модела Grok3 е само 1-2% пред DeepSeek R1 и GPT-4.0, което съответства на опита на много потребители в практически тестове, които не откриват „няма забележима разлика“. Grok3 надвишава своите наследници само с 1%-2%.

Въпреки че Grok3 е оценил по -високо от всички в момента публично тествани модели, мнозина не приемат това сериозно: в края на краищата XAI преди това е бил критикуван за „манипулиране на резултата“ в ерата на Grok2. Тъй като класацията на лидера санкционира стила на дължината на отговорите, резултатите значително намаляха, водейки индустриални вътрешни лица често да критикуват явлението „висока оценка, но ниска способност“.
Независимо дали чрез "манипулация" на класацията или дизайнерски трикове в илюстрации, те разкриват манията на Xai и Musk към понятието "водещ пакета" във възможностите на модела. Мъск плати стръмна цена за тези маржове: По време на старта той се похвали с използването на 200 000 H100 GPU (твърдейки, че "над 100 000" по време на животопроекта) и постигайки общо време за обучение от 200 милиона часа. Това накара някои да повярват, че представлява друга значителна благодат за индустрията на GPU и да разглеждат влиянието на DeepSeek върху сектора като „глупав“. По -специално, някои смятат, че чистата изчислителна сила ще бъде бъдещето на обучението на модела.
Въпреки това, някои нетизени сравняват консумацията на 2000 GPU за два месеца, за да произвеждат DeepSeek V3, изчислявайки, че действителната консумация на мощност на Grok3 е 263 пъти по -голяма от тази на V3. Разликата между Deepseek V3, която отбеляза 1402 точки, и Grok3 е малко под 100 точки. След пускането на тези данни мнозина бързо осъзнаха, че зад заглавието на Grok3 като „най -силният в света“ се крие ясен пределен ефект на полезността - логиката на по -големи модели, генериращи по -силни производителност, започна да показва намаляваща възвръщаемост.

Дори и с "висока оценка, но ниска способност", Grok2 имаше огромни количества висококачествени данни от първа страна от платформата X (Twitter), за да поддържа използването. Въпреки това, в обучението на Grok3, Xai естествено се сблъска с „тавана“, с който се сблъсква в момента Openai - липсата на данни за първокласно обучение бързо разкрива пределната полезност на възможностите на модела.
Разработчиците на Grok3 и Musk вероятно са първите, които разбират и идентифицират тези факти дълбоко, поради което Мъск непрекъснато споменава в социалните медии, че потребителите на версията сега изпитват сега е „все още е бета“ и че „пълната версия ще бъде пусната през следващите месеци“. Мъск пое ролята на продуктовия мениджър на Grok3, като предполага, че потребителите предоставят отзиви за различни проблеми, срещани в секцията за коментари.
И все пак, в рамките на един ден, производителността на Grok3 несъмнено повдигна аларми за онези, които се надяват да разчитат на "масивен изчислителен мускул", за да тренират по-силни големи модели: въз основа на публично достъпна информация за Microsoft, GPT-4 на Openai има размер на параметъра от 1,8 трилиона параметри, над десет пъти по-голям от GPT-3. Слуховете предполагат, че размерът на параметрите на GPT-4.5 може да бъде още по-голям.
Тъй като размерите на параметрите на модела се извисяват, разходите за обучение също са нарастващи. С присъствието на Grok3 претенденти като GPT-4.5 и други, които желаят да продължат „изгарянето на пари“, за да постигнат по-добра производителност на модела чрез размера на параметрите, трябва да обмислят тавана, който сега е очевидно в полезрението и обмисля как да го преодолее. В този момент Ilya Sutskever, бивш главен учен в Openai, по-рано заяви миналия декември, „предварителното обучение, с което сме запознати, ще приключи“, което се появи отново в дискусии, което подтиква усилията да се намери истинският път за обучение на големи модели.

Погледът на ILYA звучи алармата в индустрията. Той точно предвижда непосредственото изчерпване на достъпните нови данни, което води до ситуация, при която ефективността не може да продължи да бъде подобрена чрез събиране на данни, оприличавайки ги до изчерпването на изкопаемите горива. Той посочи, че „като масло, генерирано от човека съдържание в Интернет е ограничен ресурс“. В прогнозите на Sutskever, следващото поколение модели, след тренировка, ще притежават „истинска автономия“ и способности за разсъждение „подобни на човешкия мозък“.
За разлика от днешните предварително обучени модели, които разчитат предимно на съвпадение на съдържание (въз основа на предварително наученото съдържание на модела), бъдещите AI системи ще могат да научат и установяват методологии за решаване на проблеми по начин, подобни на „мисленето“ на човешкия мозък. Човекът може да постигне фундаментална владеене в даден предмет само с основна професионална литература, докато AI голям модел изисква милиони точки от данни, за да постигне само най-основната ефикасност на входното ниво. Дори когато формулировката се промени леко, тези основни въпроси може да не бъдат правилно разбрани, илюстрирайки, че моделът не се е подобрил истински в интелигентността: основните, но неразрешими въпроси, споменати в началото на статията, представляват ясен пример за това явление.

Заключение
Въпреки това, извън грубата сила, ако Grok3 наистина успее да разкрие пред индустрията, че „предварително обучените модели наближават своя край“, това би довело до значителни последици за полето.
Може би след като яростта около Grok3 постепенно отшумява, ще станем свидетели на повече случаи като примера на Fei-Fei Li за „настройка на високоефективни модели на конкретен набор от данни само за 50 долара“, в крайна сметка откривайки истинския път към AGI.
Контролни кабели
Структурирана система за окабеляване
Мрежа и данни, оптичен кабел, кръпка, модули, лицева плоча
Април 16-ти-18-ти, 2024 г. Енергия на Близкия Изток в Дубай
Април 16-ти-18-ти, 2024 г. Securika в Москва
May.9th, 2024 Ново събитие за стартиране на продукти и технологии в Шанхай
22-ри-25 октомври, 2024 г. Сигурност Китай в Пекин
19-20 ноември, 2024 г. Свързан World KSA
Време за публикация: февруари-19-2025 г.