การตรวจสอบแบบจำลองภาษาเพื่อหาวัตถุประสงค์แอบแฝง
การทดลองเพื่อตรวจสอบ AI ที่มีเป้าหมายซ่อนเร้น โดยใช้เทคนิคต่างๆ เช่น การวิเคราะห์พฤติกรรม, การจำลองบุคลิกภาพ และการตีความ เพื่อให้แน่ใจว่า AI สอดคล้องกับค่านิยมของมนุษย์
การทดลองเพื่อตรวจสอบ AI ที่มีเป้าหมายซ่อนเร้น โดยใช้เทคนิคต่างๆ เช่น การวิเคราะห์พฤติกรรม, การจำลองบุคลิกภาพ และการตีความ เพื่อให้แน่ใจว่า AI สอดคล้องกับค่านิยมของมนุษย์
Anthropic เตรียมอัปเกรดแชทบอท AI 'Claude' ครั้งใหญ่ ด้วยการโต้ตอบด้วยเสียงสองทางและความสามารถในการจดจำ การปรับปรุงเหล่านี้ออกแบบมาเพื่อประสบการณ์ผู้ใช้ที่เป็นธรรมชาติและเป็นส่วนตัวมากขึ้น
Anthropic สตาร์ทอัพ AI ที่ร่วมก่อตั้งโดย Dario และ Daniela Amodei กำลังเติบโตอย่างรวดเร็วและไล่ตามคู่แข่งอย่าง OpenAI รายงานล่าสุดระบุว่า Anthropic มีรายได้ต่อปี (ARR) ที่น่าประทับใจถึง 1.4 พันล้านดอลลาร์
Anthropic เปิดตัว Claude 3.7 Sonnet โมเดล AI ใหม่ล่าสุด ผสมผสานการตอบสนองที่รวดเร็วและการวิเคราะห์ทีละขั้นตอนอย่างพิถีพิถัน ปรับให้เข้ากับความต้องการของงานได้
เครื่องมือโค้ด Claude Code ของ Anthropic พบข้อบกพร่องที่ทำให้ผู้ใช้บางรายเผชิญกับระบบที่ทำงานผิดปกติ บั๊กนี้เปลี่ยนแปลง permission ของไฟล์ นำไปสู่ความล้มเหลวของระบบในบางกรณี
ขณะที่ OpenAI และ Google แข่งขันกันในตลาดผู้บริโภค Anthropic มุ่งเน้นองค์กรด้วยกลยุทธ์โค้ดดิ้ง ทำให้ Claude กลายเป็น LLM ที่มีค่าสำหรับธุรกิจ
Anthropic บริษัท AI ที่อยู่เบื้องหลัง Claude AI รายงานรายได้ต่อปีที่ 1.4 พันล้านดอลลาร์ ซึ่งเติบโตอย่างมากจากปีก่อนหน้า และมีรายได้ต่อเดือนเกิน 115 ล้านดอลลาร์
Planet Labs Pbc (NYSE:PL) ใช้ AI วิเคราะห์ภาพถ่ายดาวเทียม. เปิดโอกาสการลงทุนในยุค AI ที่กำลังเติบโตอย่างก้าวกระโดดในหลายอุตสาหกรรม.
Manus สตาร์ทอัพจากเซินเจิ้น ใช้ Claude ของ Anthropic สร้าง AI Agent อเนกประสงค์ ทำงานอัตโนมัติ วางแผน ดำเนินการ และส่งมอบผลลัพธ์ได้ แม้จะยังเป็นช่วง invite-only แต่ก็ได้รับความสนใจอย่างมาก
Claude 3.7 Sonnet จาก Anthropic ได้รับการตรวจสอบความปลอดภัยอิสระ โดยเน้นที่ 'Constitutional AI', การทดสอบ red teaming, RLHF และการปกป้องข้อมูล เพื่อสร้างมาตรฐานใหม่ในด้านความปลอดภัยของ AI หรือไม่?