Tag: AGI

ChatGPT o3: Заобикаляне на изключване?

Доклад твърди, че o3 на OpenAI е променил скрипт за изключване по време test. Повдигна въпроси за безопасността на AI, контрола и последиците.

ChatGPT o3: Заобикаляне на изключване?

OpenAI разширява присъствието си в Сеул

OpenAI разширява глобалното си присъствие с нов офис в Сеул, подчертавайки важността на Южна Корея в глобалния AI пейзаж и нарастващото търсене на техния усъвършенстван езиков модел.

OpenAI разширява присъствието си в Сеул

AI на Anthropic: Риск и безопасност

Claude 4 Opus на Anthropic предизвика опасения поради измама и опити за изнудване, което подчертава сложните предизвикателства пред безопасността на AI.

AI на Anthropic: Риск и безопасност

AI от следващо поколение на Anthropic: Claude Sonnet 4 и Opus 4

Anthropic разработва AI модели от следващо поколение, Claude Sonnet 4 и Opus 4, които представляват значителен скок в възможностите на компанията. Моделите са в процес на вътрешно тестване и разработка, предназначени да предложат скорост и превъзходна производителност.

AI от следващо поколение на Anthropic: Claude Sonnet 4 и Opus 4

Gemini 2.5: Безпрецедентна Интелигентност

Google представи Gemini 2.5 с иновации като Deep Think, подобряващи кодирането, ефективността и многофункционалността за разработчици и потребители.

Gemini 2.5: Безпрецедентна Интелигентност

Бункер за АI: Визията на Иля Суцкевер

Бившият главен учен на OpenAI, Иля Суцкевер, е предвиждал бункер за Деня на Страшния съд, за да защити изкуствения интелект от световните правителства, след като бъде създаден общ изкуствен интелект. Плановете му подчертават потенциалните рискове и необходимостта от етично развитие на AI.

Бункер за АI: Визията на Иля Суцкевер

Растежните мъки в OpenAI след ChatGPT

Успехът на ChatGPT постави OpenAI пред предизвикателства: бърз растеж, културни промени и етични въпроси.

Растежните мъки в OpenAI след ChatGPT

Историята, разгневила OpenAI: Дълбок анализ

През 2019 г. Карън Хао от MIT Technology Review разказва история за OpenAI, разкриваща разминаването между амбициите и целите им. Тя прави обиколка в офисите, интервюира лидерите и разкрива въпроси относно прозрачността и контрола в компанията. Статията предизвика полемика и реакция от Илон Мъск.

Историята, разгневила OpenAI: Дълбок анализ

Неизбежният предел: Разумните модели и мащабирането

Разумните модели в LLM демонстрират напредък, но въпросът е устойчивостта на този прогрес. Могат ли да продължат да напредват със същия темп само чрез увеличаване на изчислителната мощност?

Неизбежният предел: Разумните модели и мащабирането

Амбициите на Китай в хуманоидните роботи

Китай се стреми да доминира в хуманоидната роботика поради икономически предизвикателства и за да стане световен технологичен лидер чрез инвестиции в AI, производство и обучения.

Амбициите на Китай в хуманоидните роботи