Databricks ประกาศความร่วมมือกับ Anthropic เป็นระยะเวลา 5 ปี เพื่อนำโมเดลปัญญาประดิษฐ์ของ Anthropic ให้บริการบนแพลตฟอร์ม Data Intelligence Platform ทำให้ลูกค้าองค์กรมากกว่า 10,000 ราย สามารถเข้าถึงโมเดลตระกูล Claude เพื่อสร้างแชทบอตและ AI Agent แบบคัสตอมสำหรับใช้กับข้อมูลในองค์กร
Databricks บอกว่าลูกค้าองค์กรมีการลงทุนด้าน AI ที่เพิ่มมากขึ้น แต่มีอุปสรรคในการสร้างและดีพลอย AI Agent ที่สามารถเรียนรู้และทำความเข้าใจข้อมูลระดับลูกค้าองค์กร พร้อมกับให้คำตอบได้อย่างแม่นยำตามข้อกำหนดที่องค์กรต้องการ ซึ่งรวมถึงความปลอดภัยข้อมูล การจัดการการเข้าถึง ข้อตกลงร่วมกันของ Databricks และ Anthropic จึงเข้ามาเติมความต้องการนี้
เมื่อวานนี้ OpenAI ประกาศอัปเกรดเครื่องมือสร้างรูปภาพขั้นสูงใน ChatGPT ที่ทำงานบนโมเดล GPT-4o ซึ่งบอกว่าให้ภาพที่สมจริงขึ้น กำหนดรายละเอียดได้ดีกว่าเดิม ผลคือชาวโซเชียลก็ร่วมทดลองใช้งานจนเกิดเป็นไวรัลสร้างรูปภาพอะไรก็ได้ในสไตล์ "จิบลิ" หรือ Studio Ghibli สตูดิโอผลิตภาพยนตร์อนิเมะของญี่ปุ่น
กระแสนี้แรงแค่ไหน แม้แต่ Sam Altman ซีอีโอ OpenAI ยังต้องร่วมเล่นกับเขาด้วย โดยเปลี่ยนรูปโปรไฟล์เป็นสไตล์จิบลิเช่นกัน จากนั้นก็โพสต์ข้อความว่า
มีรายงานว่าทางการจีนเตรียมออกข้อกำหนดใหม่ เกี่ยวกับประสิทธิภาพการใช้พลังงานของศูนย์ข้อมูลประมวลผล ซึ่งประเด็นสำคัญคือชิป H20 ของ NVIDIA ไม่ผ่านเงื่อนไขของข้อกำหนดใหม่นี้
H20 เป็นชิป AI ที่ NVIDIA ผลิตเพื่อขายในประเทศจีนโดยเฉพาะ เพื่อให้เข้าเงื่อนไขการส่งออกชิปที่สหรัฐอเมริกากำหนด ก่อนหน้านี้มีรายงานว่าบริษัทเทคโนโลยีขนาดใหญ่ในจีนต่างเร่งสั่งชิป H20 เป็นจำนวนมากเพื่อรองรับความต้องการ AI ทั้งนี้จีนถือเป็นตลาดสำคัญของ NVIDIA คิดเป็น 13% ของยอดขายรวมทั่วโลก
Joe Tsai ประธาน Alibaba Group ออกมาแสดงความเห็นเกี่ยวกับการลงทุนโครงสร้างพื้นฐาน AI ซึ่งบริษัทเองก็ลงทุนด้วยเงินจำนวนมาก แต่มองว่าบริษัทเทคโนโลยีหลายรายในสหรัฐอเมริกาลงทุนสูงจนน่าตกใจ
เขามองว่าตอนนี้คนพากันพูดถึงตัวเลขเวลาลงทุนด้าน AI ที่ระดับ 5 แสนล้านดอลลาร์ หรือหลายแสนล้าน ซึ่งไม่ได้จำเป็นทั้งหมด เขามองว่าตอนนี้การลงทุนเกิดขึ้นล่วงหน้าเกินไปก่อนที่จะมีความต้องการจริงด้วยซ้ำ เมื่อเป็นการลงทุนที่ยังไม่รู้ว่าลูกค้าจะมีหรือไม่ เขาก็มองว่านี่อาจเป็นจุดเริ่มต้นของฟองสบู่ได้
ทั้งนี้แผนการลงทุนด้าน AI ของ Alibaba อยู่ที่อย่างน้อย 3.8 แสนล้านหยวน หรือประมาณ 5.2 หมื่นล้านดอลลาร์ ภายใน 3 ปีข้างหน้า
ข้อมูลนี้ไม่ได้ออกมาเป็นทางการ แต่มาจากรายงานของ Ananda Baruah นักวิเคราะห์ที่ Loop Capital Markets ซึ่งบอกว่าตอนนี้แอปเปิลได้เข้ามาเป็นผู้ซื้อเซิร์ฟเวอร์สำหรับประมวลผล AI อีกรายแล้ว โดยพาร์ตเนอร์หลักที่จัดส่งเซิร์ฟเวอร์ให้คือ Supermicro และ Dell
อย่างไรก็ตามตัวเลขในรายงานนั้นไม่สูงเมื่อเทียบกับบริษัทเทคโนโลยีอื่น โดยคำสั่งซื้ออยู่ที่ประมาณ 1 พันล้านดอลลาร์ เป็นเซิร์ฟเวอร์ที่ติดตั้งจีพียู NVIDIA GB300 ล่าสุดที่เพิ่งเปิดตัว ราคาเซิร์ฟเวอร์ตัวละประมาณ 3.7-4 ล้านดอลลาร์ จึงคิดเป็นจำนวนเซิร์ฟเวอร์ประมาณ 250 ตัว
แอปเปิลไม่ได้ออกมาให้ความเห็นต่อรายงานนี้
Grok แชทบอตปัญญาประดิษฐ์ของ xAI ประกาศความร่วมมือกับ Telegram ให้สามารถใช้งาน Grok ได้ผ่านแชทของ Telegram
ข้อมูลเบื้องต้นของการให้บริการระบุว่าผู้ใช้งานต้องเป็นสมาชิกทั้ง Telegram Premium และ X Premium จึงสามารถใช้งาน Grok บน Telegram โดยไม่มีค่าใช้จ่ายเพิ่มเติม
Elon Musk ซีอีโอ xAI ยืนยันเรื่องบน X แต่บอกว่า Grok เริ่มให้บริการแล้วบน Telegram
ที่มา: Social Media Today
ทีม ARC Prize ประกาศการแข่งขัน ARC-AGI-2 ข้อสอบไอคิวสำหรับมนุษย์ที่ยังยากสำหรับปัญญาประดิษฐ์ หลังจากข้อสอบชุดแรกเปิดตัวมาตั้งแต่ปี 2020 และตอนนี้มี AI ได้คะแนนสูงสุดคือ o3 ที่ 82.8%
ARC-AGI-2 เป็นข้อสอบที่ทำโดยมษุย์สำเร็จทุกข้อ หากให้ช่วยกันสองคน และมนุษย์โดยทั่วไปเฉลี่ยได้คะแนน 60% ตอนนี้โมเดลที่ดีที่สุดคือ o3 ทำคะแนนได้เพียง 4%
รางวัลรวมของ ARC-AGI-2 อยู่ที่ 1 ล้านดอลลาร์ รางวัลที่หนึ่งเป็นเงิน 700,000 ดอลลาร์หากทำคะแนนได้เกิน 80% และต้องใช้ต้นทุนประมวลผลไม่เกิน 50 ดอลลาร์เท่านั้น
ที่มา - ARC Prize
ไมโครซอฟท์เปิดตัวผู้ช่วย AI บน Microsoft 365 Copilot สำหรับการค้นหาข้อมูลเชิงลึกและค้นหาข้อมูลสำหรับงานวิจัย ในรูปแบบเดียวกับ Deep Research ของ OpenAI และ Gemini Deep Research ของกูเกิล ซึ่งของไมโครซอฟท์แยก AI Agent เป็นสองตัวคือ Researcher และ Analyst
Researcher ระบุความสามารถช่วยการค้นคว้าข้อมูลที่มีขั้นตอนซับซ้อน ให้ข้อมูลที่มีคุณภาพสูง และตรงกับที่ต้องการใช้งานมากกว่าที่เคยมีมา ตัวผู้ช่วย AI ทำงานผสมผสานระหว่างโมเดล Deep Research ของ OpenAI กับเครื่องมือขั้นสูงของ Microsoft 365 Copilot รองรับการทำงานร่วมกับแหล่งข้อมูลภายนอกบน Salesforce, ServiceNow, Confluence และอื่น ๆ เพื่อหา insight ได้
Anthropic ชนะคดีเบื้องต้นที่ศาลรัฐบาลกลางรัฐแคลิฟอร์เนีย หลังจากศาลปฏิเสธคำร้องจากกลุ่มค่ายเพลงนำโดย Universal Music Group ที่ฟ้อง Anthropic ว่าละเมิดลิขสิทธิ์ผลงาน โดยการนำเนื้อเพลงที่บริษัทถือลิขสิทธิ์ไปฝึกฝนปัญญาประดิษฐ์ เพื่อให้มีความสามารถในการแต่งเพลง
ผู้พิพากษา Eumi Lee ให้เหตุผลที่ปฏิเสธคำฟ้องจากกลุ่มค่ายเพลง โดยบอกว่าเนื้อหาการฟ้องร้องนั้นกว้างเกินไป และไม่สามารถพิสูจน์ได้ว่าการกระทำของ Anthropic สร้างความเสียหายอย่างร้ายแรงอย่างไร
Amazon เปิดตัว "Interest" ฟีเจอร์ใหม่ที่แนะนำสินค้าใหม่ด้วย AI ให้ตรงกับความสนใจของลูกค้าหรืองานอดิเรกที่ทำ โดย Amazon ยกตัวอย่างว่าลูกค้าอาจต้องการ gadget สำหรับการถ่ายภาพรุ่นล่าสุด, สินค้าที่ระลึกศิลปินที่ติดตาม หรืออุปกรณ์กีฬาตัวใหม่ ทั้งหมดนี้ Interest สามารถเข้ามาแนะนำสินค้าให้ตรงใจมากขึ้น
ผู้ใช้งานสามารถกำหนดสิ่งที่สนใจ โดยการเขียน prompt ระบุรายละเอียด งบจำกัด ไปจนถึงรายละเอียดอื่น เช่น "Brewing tools and gadgets for coffee lovers" หรือ "Model building kits and accessories for hobbyist engineers and designers" จากนั้น Interest จะค้นหาและแนะนำสินค้าใหม่ให้
Interest เริ่มทดสอบกับลูกค้าในอเมริกากลุ่มจำกัดก่อน จากนั้นจะทยอยขยายไปทั่วประเทศ
AlexNet ซอฟต์แวร์แยกแยะรูปภาพที่เคยเป็นจุดเปลี่ยนสำคัญของวงการ AI เมื่อปี 2012 ตอนนี้เปิดซอร์สโค้ดต่อสาธารณะ เข้าถึงได้บน GitHub
AlexNet พัฒนาโดย Alex Krizhevsky นักศึกษาปริญญาเอกชาวยูเครนที่มหาวิทยาลัย Toronto ในขณะนั้น ร่วมกับเพื่อนนักศึกษา Ilya Sutskever (ภายหลังเป็นผู้ร่วมก่อตั้ง OpenAI) และอาจารย์ของพวกเขาคือ Geoffrey Hinton (หลังจากนั้นแบ่งเวลาบางส่วนไปทำงานกับกูเกิลจนถึงปี 2023 และได้รางวัลโนเบลสาขาฟิสิกส์ในปี 2024)
OpenAI ประกาศอัปเกรดเครื่องมือสร้างรูปภาพขั้นสูงบนโมเดล GPT-4o ที่บอกว่าไม่เพียงแต่ได้รูปที่สวยงามกว่าเดิม แต่สามารถกำหนดรายละเอียดให้ตรงกับความต้องการยิ่งกว่าเดิม
เนื่องจาก GPT-4o เป็นโมเดลที่ค่อย ๆ คิดเป็นขั้นตอน ทำให้การสร้างรูปภาพบนโมเดลนี้จึงสามารถกำหนดรายละเอียด หรือสั่งแก้ไขเป็นส่วนได้ดีกว่า DALL·E ที่เป็นเครื่องมือสร้างรูปภาพตัวเดิม ตัวอย่างที่ OpenAI นำเสนอ เช่น สามารถระบุข้อความที่ปรากฎในรูปภาพอย่างละเอียดแต่ละตำแหน่งได้, สามารถกำหนดหรือแก้ไขภาพที่มีทั้งข้อความและคนในรูปได้, กำหนดรายละเอียดตามลำดับสูงถึง 10-20 รายการใน 1 prompt, สามารถเรียนรู้จากรูปที่อัปโหลดเข้าไปได้, มีความรู้จับคู่ข้อความกับภาพที่สามารถสร้าง Infographic ได้ เป็นต้น (ตัวอย่างที่น่าสนใจอยู่ท้ายข่าว)
Bloomberg รายงานว่า Ant Group กลุ่มฟินเทครายใหญ่ที่มี Jack Ma สนับสนุนอยู่ ใช้เซมิคอนดักเตอร์ที่ผลิตในจีนอย่าง Alibaba และ Huawei และใช้สถาปัตยกรรม mixture-of-experts (MoE) เพื่อลดต้นทุนการฝึกโมเดลลง 20% แทนที่จะใช้ชิป NVIDIA H800 อย่างเดียว
Ant บอกว่าค่าใช้จ่ายในการฝึกอบรมโทเค็น 1 ล้านล้านหน่วย โดยใช้ฮาร์ดแวร์ประสิทธิภาพสูงอยู่ที่ประมาณ 6.35 ล้านหยวน (880,000 ดอลลาร์ฯ) แต่เมื่อใช้ชิปจีนจะลดต้นทุนลงเหลือ 5.1 ล้านหยวน
ไมโครซอฟท์เปิดตัว Microsoft Security Copilot ในปี 2023, ออกตัวจริงในปี 2024 มาถึงวันนี้ปี 2025 ก็ประกาศฟีเจอร์ใหม่ Agentic AI จำนวน 11 รูปแบบ เพื่อช่วยงานตรวจสอบความปลอดภัยด้านต่างๆ
ความน่าสนใจคือ Security Copilot agent ที่เปิดตัว มี agent ของไมโครซอฟท์เอง 6 ตัว และ agent ของพาร์ทเนอร์ภายนอกอีก 5 ตัว ที่มาสร้างระบบ agent บนแพลตฟอร์ม Security Copilot
Salesforce Thailand บอกกับ Blognone ว่าหลังจากที่เปิดตัว Agentforce หรือโซลูชันพนักงานดิจิทัลสำหรับองค์กร พบว่าลูกค้าองค์กรไทยมีความพร้อม และสามารถตามคอนเซปท์ Agentic AI ทัน แม้จะเริ่มต้นใช้ในระดับองค์กรช้ากว่าต่างประเทศ
ส่วนหนึ่งเป็นเพราะองค์กรไทยยังกังวลเรื่องความปลอดภัยของข้อมูลที่ใช้กับ AI และกฎหมาย PDPA ซึ่งแตกต่างกับในต่างประเทศ ที่มีความคุ้นชินกับการใช้ข้อมูลแบบเปิดกว้างมากกว่า
นอกจากนี้ คนไทยส่วนใหญ่ยังเข้าใจว่าการใช้ Agentic AI ต้องมีความรู้ด้าน data science หรือ robotics เฉพาะทาง แต่จริง ๆ แล้ว AI ในยุคนี้เข้าถึงง่ายขึ้น และไม่ต้องเชี่ยวชาญสูงอีกต่อไป เพียงแต่ต้องบริหารจัดการดาต้าให้ดี และยอมรับการเปลี่ยนแปลงเชิงโครงสร้างได้
Watch the Skies เป็นภาพยนตร์ไซไฟจากสวีเดน ใช้นักแสดงชาวสวีดิช พูดด้วยภาษาสวีดิชทั้งเรื่อง แต่เวอร์ชันที่ฉายในสหรัฐอเมริกา จะใช้เสียงพากย์ภาษาอังกฤษ พร้อมปรับเปลี่ยนการขยับปากของนักแสดงให้พูดตามเสียงพากย์อังกฤษ ด้วยพลัง AI
เบื้องหลัง Watch the Skies ใช้เทคโนโลยีของบริษัท Flawless AI ที่แปลงภาพใบหน้านักแสดง (ที่ถ่ายทำเสร็จไปแล้ว) เป็นโมเดลใบหน้า 3 มิติ จากนั้นซิงก์การขยับปากกับเสียงของนักพากย์ภาษาอังกฤษให้อัตโนมัติ
Tencent เปิดตัวโมเดลปัญญาประดิษฐ์แบบคิดเป็นเหตุผล Hunyuan T1 โดยใช้การพัฒนาโมเดลแบบ Leverages Large-scale Reinforcement Learning เหมือนกับที่ DeepSeek ใช้ในการพัฒนาโมเดล R1 และวางสถาปัตยกรรมโมเดลแบบไฮบริด ใช้ Transformer ของกูเกิลร่วมกับ Mamba ของ Carnegie Mellon University ทำให้ลดต้นทุนการฝึกฝนและรันโมเดลได้มาก
AMD เปิดตัวโครงการโอเพนซอร์สชื่อ GAIA เป็นแอพพลิเคชันบนพีซี ที่ช่วยนำโมเดล LLM มารันบนพีซี และสามารถเร่งความเร็วหากเป็นเครื่องที่มี NPU ของชิป Ryzen AI ด้วย
GAIA คงไม่ต่างอะไรมากกับชุดซอฟต์แวร์แบบเดียวกันที่มีอยู่แล้ว (เช่น ไมโครซอฟท์เองมี Windows Copilot Runtime) มีฟีเจอร์ Retrieval-Augmented Generation (RAG) ช่วยเสริมความรู้เฉพาะทางให้ AI (เช่น คลังเอกสารขององค์กร) เพื่อนำมาสร้างเป็น agent ที่เชี่ยวชาญงานเฉพาะด้าน ตัวอย่างที่ AMD ให้มาคือ agent ที่ช่วยค้นหาข้อมูลจากคลิปใน YouTube, agent เล่นมุขตลก เป็นต้น
Stability AI เปิดตัว Stable Virtual Camera โมเดลปัญญาประดิษฐ์ที่สามารถแปลงภาพ 2 มิติ ให้กลายเป็นวิดีโอ 3 มิติ โดยเพิ่มมุมมองที่ต้องการ และปรับความลึกของภาพได้
จุดเด่นของ Stable Virtual Camera คืออินพุทที่ใช้ ประกอบด้วย ภาพ 2 มิติ ซึ่งสามารถใช้ได้ตั้งแต่ 1-32 ภาพ ส่วนอินพุทอีกอันคือทิศทางของกล้องวิดีโอที่ต้องการในผลลัพธ์ โดยรองรับ 14 ทิศทาง เช่น การถ่ายแบบหมุน 360 องศา, แพนกล้อง, ซูมแบบดอลลี่, เคลื่อนที่ด้านข้าง, หมุนกล้อง เป็นต้น
ในเวอร์ชันแรกที่เผยแพร่นี้ วิดีโอที่เป็นผลลัพธ์ยังมีคุณภาพความละเอียดที่ต่ำในบางกรณี โดยเฉพาะหากภาพอินพุทมีรายละเอียดซับซ้อน เช่น คน สัตว์ หรือน้ำ หรือหากฉากมีรายละเอียดมาก ก็ทำให้ผลลัพธ์ที่ได้อาจผิดเพี้ยน
ทีมนักวิจัยของ OpenAI และ MIT Media Lab รายงานผลการศึกษาในหัวข้อ การใช้งาน AI ส่งผลต่ออารมณ์และสภาวะจิตใจของผู้ใช้งานอย่างไรบ้าง โดยทำการศึกษาจากบทสนทนาระหว่าง ChatGPT กันเอง เพื่อดูปฏิกิริยาและอารมณ์ในการโต้ตอบ และศึกษาจากผู้ใช้งานกลุ่มเป้าหมายเกือบ 1 พันคน เป็นเวลา 4 สัปดาห์
ผลการศึกษาในสองประเด็นนี้ทำให้ทีมวิจัยพบว่า
Cloudflare เปิดตัว AI Labyrinth เครื่องมือสำหรับควบคุมและจัดการบอตดูดเนื้อหาเว็บไปเทรน AI (AI Crawler) โดยเน้นไปที่บอตซึ่งไม่ทำตามคำสั่งที่ระบุใน robots.txt ซึ่งกำลังเป็นปัญหาอยู่ตอนนี้
วิธีการของ AI Labyrinth ไม่ได้ใช้การบล็อกบอตดูดเนื้อหา เพราะหลายกรณีผู้พัฒนาก็หาวิธีหลบเลี่ยงได้ แนวทางใหม่คือการใช้ Generative AI โดยเมื่อพบพฤติกรรมที่น่าจะเป็นบอตดูดเนื้อหาเทรน AI ระบบจะเขียนเนื้อหาใหม่ขึ้นมา แล้วทำให้บอตติดวนอยู่ในเนื้อหาสร้างใหม่ที่ไม่มีอยู่จริง ซึ่งคนทั่วไปก็เข้าไปอ่านไม่ได้ ผลคือเจ้าของบอตก็ไม่ได้ข้อมูลที่ต้องการ แถมเสียเวลาและทรัพยากรในการรันนี้อีก
Meta พยายามผลักดันฟีเจอร์ปัญญาประดิษฐ์บน Meta AI ให้กับผู้ใช้งานในหลายช่องทางบนแพลตฟอร์มต่าง ๆ กรณีนี้เป็นรูปแบบล่าสุด ที่อาจจะช่วยให้ชีวิตง่ายขึ้นไปอีก (?)
ผู้ใช้งาน Jonah Manzano โพสต์การพบฟีเจอร์ใหม่บน Instagram ซึ่งอยู่ในขั้นตอนทดสอบ โดยแสดงตัวเลือก "Write with Meta AI" หรือให้ Meta AI ช่วยเขียนข้อความให้ เมื่อกำลังคอมเมนต์ในโพสต์บน Instagram สร้างตัวเลือกแนะนำข้อความที่จะใช้คอมเมนต์ในรูป-วิดีโอนั้น
ข้อความที่ให้เลือกนั้นแสดงให้เห็นว่า Meta AI ดูสิ่งที่ปรากฏในภาพ เพื่อนำมาประกอบในข้อความ หากผู้ใช้งานไม่ชอบตัวเลือกที่ให้มา สามารถรีเฟรชให้ Meta AI สร้างข้อความอื่นให้เลือกได้
อีกประเด็นที่น่าสนใจของ Google Pixel 9a มือถือราคาประหยัดของกูเกิล คือการให้แรม 8GB ซึ่งน้อยกว่า 12GB ของ Pixel 9 รุ่นใหญ่ที่มีโมเดล Gemini Nano คำถามสำคัญของยุคนี้คือแรม 8GB เพียงพอต่อการรันฟีเจอร์ AI ยุคใหม่ๆ หรือไม่
คำตอบของกูเกิลคือ Pixel 9a ใช้โมเดล Gemini Nano 1.0 รุ่น XXS ที่ขนาดเล็กลงกว่าปกติ บีบให้ยัดลงใน Pixel 9a ได้ แถมโมเดล XXS ยังไม่ได้รันตลอดเวลาเหมือนกับ Pixel รุ่นใหญ่ แต่โหลดโมเดลเข้ามาเฉพาะตอนที่ใช้งานเท่านั้น
OpenAI ออกโมเดลแปลงข้อความเป็นเสียงใหม่ กำหนดโทนได้มากขึ้น และเสียงเป็นข้อความที่ผิดพลาดน้อยลง
โมเดล text-to-speech หลักตัวใหม่คือ gpt-4o-mini-tts
มีจุดเด่นคือนักพัฒนาสามารถกำหนดรูปแบบนำเสียงการพูด เช่น ให้พูดแนว mad scientist หรือพูดในโทนเสียงคุณครูที่อบอุ่น เป็นต้น สามารถทดลองรูปแบบใช้งานได้ที่นี่
งาน NVIDIA GTC ปีนี้นอกจากการแถลงข่าวของ NVIDIA เองแล้วยังมีนักวิจัยชั้นนำขึ้นเวทีย่อยๆ ในงานจำนวนมาก คนหนึ่งที่มาขึ้นเวทีครั้งนี้คือ Yann LeCun Chief AI Scientist at Meta หนึ่งในผู้บุกเบิก convolutional neural networks (CNN) บรรยายถึงโลกอนาคตของปัญญาประดิษฐ์
LeCun คาดการณ์ถึง AI ในอนาคตว่าน่าจะต้องขยายไปรูปแบบอื่นที่ไม่ใช่แค่ LLM แบบทุกวันนี้เพราะรูปแบบการส่งเอาท์พุตมีได้จำกัด (ตาม dictionary ของ token) และการฝึกด้วยข้อความอย่างเดียวโดยอาศัยการขยายโมเดลและข้อมูลฝึกไปเรื่อยๆ ไม่น่าจะนำไปสู่การสร้าง AI ฉลาดระดับใกล้มนุษย์ หรือ AGI ได้ เพราะมนุษย์นั้นเรียนรู้ข้อมูลหลากหลายกว่ามาก ทั้งภาพและเสียงจำนวนมหาศาลตั้งแต่เด็ก