กูเกิลทลายข้อจำกัดของ Gemini เวอร์ชันฟรี ที่ก่อนหน้านี้ไม่สามารถแนบไฟล์ให้ Gemini อ่านได้ (จำกัดเฉพาะเวอร์ชันเสียเงิน) ตอนนี้เราสามารถแนบไฟล์ Google Docs, Word, PDF เพื่อให้ Gemini อ่าน สรุปเนื้อหา ถามตอบได้ แบบเดียวกับแชทบอท AI ตัวอื่นๆ ในท้องตลาด
ฟีเจอร์นี้มีผลแล้วทั้งเวอร์ชันเว็บและแอพบน Android/iOS วิธีใช้งานคือกดปุ่ม + ในช่อง prompt แล้วเลือกแนบไฟล์ได้เลย
ที่มา - Android Central
กูเกิลเปิดตัว "เพื่อนนักวิทยาศาสตร์เสมือน" (AI co-scientist หรือ virtual scientific collaborator) เป็นการนำ Gemini 2.0 มาปรับแต่งเพื่อเป็นคู่คิดให้นักวิทยาศาสตร์ ช่วยเสนอสมมติฐานและแผนการวิจัย ตามโจทย์วิจัยที่ได้รับมอบหมาย
ผู้ช่วยนักวิทยาศาสตร์ AI ใช้ระบบ multi-agent สร้าง agent หลายๆ ตัวมารับบทบาทที่แตกต่างกัน เช่น ช่วยคิดไอเดีย ตรวจสอบไอเดีย ให้คะแนนไอเดีย ฯลฯ แล้วนำไอเดียที่ได้มาจัดลำดับคะแนน ตัว agent สามารถค้นหาข้อมูลในเว็บ หรือเรียกใช้โมเดลเฉพาะทางอื่นๆ เพื่อตรวจสอบความเป็นไปได้ของสมมติฐาน
นอกจากการระดมสมองหาไอเดียที่มีคุณภาพแล้ว ผู้ช่วยนักวิทยาศาสตร์ยังสามารถทำแผนการวิจัย จัดแบ่งทรัพยากร จัดคิวงาน ให้เราได้ด้วย
กูเกิลแจ้งผู้ใช้งานแอป Google บน iOS ว่าฟังก์ชันการเรียกใช้งาน Gemini AI จะถูกนำออกจากแอป Google ซึ่งเดิมเป็นช่องทางหลักในการใช้ Gemini บน iOS โดยสลับโหมดกับ Google Search
โดยกูเกิลแจ้งว่าให้ย้ายไปใช้งาน Gemini ผ่านแอป Gemini บน iOS ที่ออกมาตั้งแต่ปลายปีที่แล้ว ซึ่งกูเกิลบอกว่านอกจากจะได้ใช้งาน Gemini เหมือนเดิมแล้ว ฟีเจอร์ใหม่ที่เดิมไม่มีในแอป Google จะถูกนำมาใส่ในแอป Gemini นี้ เช่น การคุยเสียง Gemini Live
ที่มา: 9to5Google
กูเกิลประกาศฟีเจอร์เพิ่มเติมให้ Gemini (เฉพาะ Gemini Advanced แบบเสียเงิน) จดจำการสนทนาในอดีตได้แล้ว เราสามารถสั่งให้ Gemini สรุปการพูดคุยในอดีต หรือถามข้อมูลที่เคยถามไปแล้วได้ โดยไม่ต้องมานั่งคิด prompt ใหม่ หรือไปนั่งขุดประวัติการสนทนา
ฟีเจอร์นี้สามารถปิดได้ถ้าไม่ต้องการในหน้า My Activity ของ Gemini รวมถึงสามารถตั้งค่าได้ว่าจะให้เก็บประวัติการสนทนานานแค่ไหน
ที่มา - Google Blog
กูเกิลปล่อยไลบรารี google-genai เวอร์ชั่น 1.0 (และอัพเดตรัวๆ จนเป็น 1.2 ในตอนนี้) นับเป็นการออกไลบรารีกลางสำหรับการใช้ Generative AI ของกูเกิล หลังจากที่ก่อนหน้านี้การพัฒนาแอปพลิเคชั่น LLM บนกูเกิลนั้นมีสองฝั่งแยกจากกัน
บริการ LLM ของกูเกิลนั้นแยกออกเป็นสองทาง คือ Google AI Studio และ Google Cloud Vertex AI แม้โมเดลที่ใช้งานจะคล้ายกัน แต่กระบวนการยืนยันตัวตนผู้ใช้และ API นั้นไม่ตรงกัน โดยฝั่ง AI Studio จะใช้ API key คล้ายของ OpenAI ขณะที่ฝั่ง Vertex AI ใช้ JSON เหมือน API อื่นๆ และก่อนหน้านี้ไลบรารีทั้งสองฝั่งก็ต่างกัน ทำให้แยกกันยิ่งกว่า OpenAI และ Azure ที่คอนฟิกเพิ่มเพียงเล็กน้อย
กูเกิลประกาศว่าลูกค้า Google Workspace ทั้งหมดสามารถใช้งาน AI สร้างรูปภาพ Imagen 3 สำหรับการสร้างรูปบุคคลได้แล้ว โดยสามารถใช้งานได้ผ่านทั้งแอป Gemini รวมถึงส่วนเสริม Gemini ใน Google Docs, Sheets, Drive, Slides และ Gmail
ฟังก์ชันสร้างรูปภาพบุคคลด้วย AI ของ Imagen เคยเจอปัญหาเมื่อปีที่แล้วที่สร้างรูปภาพไม่ตรงกับที่ระบุไว้ จนทำให้กูเกิลเลือกปิด Prompt ที่สร้างรูปบุคคลชั่วคราว แล้วกลับมาเปิดใช้งานใน Imagen 3 อีกครั้ง แต่ช่วงแรกจำกัดเฉพาะ Gemini Advanced ก่อน
กูเกิลจะทยอยอัปเดตความสามารถนี้ให้ลูกค้า Workspace ทั้งหมดภายใน 1 มีนาคม 2025
กูเกิลแก้ไขหนังโฆษณาสำหรับฉายในช่วงการแข่งขัน Super Bowl ที่เป็นประเด็น เนื่องจากแสดงข้อมูลที่ Gemini ช่วยเขียนรายละเอียดสินค้าให้กับธุรกิจ ว่าชีสเกาด้ามีส่วนแบ่ง 50-60% ของการบริโภคชีสทั่วโลก
ในหนังโฆษณาที่แก้ไขรายละเอียดใหม่ ยังเป็นการใช้ Gemini เขียนรายละเอียดสินค้าชีสเกาด้าเหมือนเดิม แต่ผลลัพธ์นั้นระบุเพียงชีสเกาด้าเป็นหนึ่งในชีสยอดนิยม และนำตัวเลขสถิติออกไป
หลังจากอยู่แต่กับ Gemini 2.0 Flash ตัวเล็ก มาตั้งแต่เดือนธันวาคม 2024 ในที่สุดกูเกิลก็เปิดตัวโมเดลรุ่นใหญ่ Gemini 2.0 Pro ที่สถานะยังเป็นรุ่นทดสอบ (Experimental) ให้ทดลองใช้ผ่าน Google AI Studio และ Vertex AI
กูเกิลบอกว่า Gemini 2.0 Pro มีความสามารถสูงเรื่องการเขียนโค้ด การตอบพรอมต์ที่ซับซ้อน มีความเข้าใจโลกและคิดอย่างเป็นเหตุเป็นผลสูงสุดของโมเดล Gemini ทั้งหมด และยังรองรับ context window ขนาดใหญ่ 2 ล้านโทเค็น เท่ากับ Gemini 1.5 Pro รุ่นก่อนหน้า
กูเกิลออกโฆษณาในช่วงการแข่งขัน Super Bowl โดยเผยแพร่ก่อนทางออนไลน์ เป็นหนังโฆษณา 50 เรื่องราว ของธุรกิจขนาดเล็กใน 50 รัฐทั่วสหรัฐอเมริกา กับการนำ Gemini AI มาช่วยเพิ่มความสะดวกในการทำงาน
หนังโฆษณาทั้ง 50 เรื่องราวสามารถรับชมได้ที่นี่ ตัวอย่างเรื่องราวเช่น ร้าน Nuts.com ในนิวเจอร์ซีย์ ที่ใช้ฟังก์ชันแปลภาษาเรียลไทม์ช่วยในการเจรจาธุรกิจต่างประเทศ, องค์กร Wild Hearts Idaho ในไอดาโฮ ที่นำ AI มาช่วยเขียนแคปชันโพสต์ลงโซเชียล, ร้าน Fitz's Bottling ในมิสซูรีใช้ Gemini บน Sheets สรุปข้อมูลสินค้าในสต็อกอย่างรวดเร็ว
กูเกิลเปิดให้ผู้ใช้ Gemini ทุกคนเข้าถึงโมเดล Gemini 2.0 Flash ที่เปิดตัวในเดือนธันวาคม 2024 และจำกัดเฉพาะผู้ซื้อแพ็กเกจ Gemini Advanced และผู้ใช้บางกลุ่มมาสักระยะหนึ่ง ตอนนี้สามารถเรียกใช้ Gemini 2.0 Flash จากแอพ Gemini บนมือถือได้แล้ว
จุดเด่นของ Gemini 2.0 Flash คือประสิทธิภาพของผลลัพธ์ดีขึ้น ทำคะแนนได้ดีกว่าโมเดลตระกูล Gemini 1.5 และตอบเร็วขึ้นกว่าเดิม
กูเกิลระบุว่าจะคงโมเดล Gemini 1.5 Flash/Pro ต่อไปอีกหลายสัปดาห์ และน่าจะถอดออกในที่สุด (เท่าที่ลองจากบัญชีตัวเอง ค่าดีฟอลต์ยังเป็น Gemini 1.5 Flash แต่มีตัวเลือก Gemini 2.0 Flash ให้สลับเอง)
กูเกิลเพิ่มความสามารถใหม่ของ Gemini ใน Google Sheets เพื่อสร้างตัวแสดงผลข้อมูล (Data Visualization) และการบ่งชี้ส่วนที่น่าสนใจในข้อมูล ซึ่งวิธีดั้งเดิมนั้นต้องใช้เวลามาก แต่จากนี้สามารถทำได้ง่ายขึ้นโดยเรียกคำสั่งผ่าน Gemini
Gemini ใน Sheets สามารถสร้างผลลัพธ์ได้ตามคำสั่ง หรือตอบคำถามตามที่ผู้ใช้งานสนใจ เช่น ให้ระบุส่วนที่น่าสนใจของข้อมูล แนวโน้ม รูปแบบที่พบ หรือความแตกต่างของแต่ละส่วนในข้อมูล เช่น ให้บอกช่องทางขาย 3 อันดับแรก, ให้พยากรณ์กระแสเงินสดในอีกหนึ่งไตรมาสข้างหน้า เป็นต้น เบื้องหลังการทำงานทั้งหมด Gemini จะสร้างสคริปต์ Python ขึ้นมาแล้วรันบนข้อมูลใน Sheets นั้น
กูเกิลประกาศว่าจะนำฟีเจอร์บางส่วนของ Project Astra ที่เคยโชว์ไว้ตอนงาน I/O 2024 มาใช้กับแอพ Gemini บนสมาร์ทโฟน โดยจะเริ่มจาก Galaxy S25 แล้วค่อยขยายไปยังแอนดรอยด์รุ่นอื่นๆ ต่อไป แต่ยังไม่ยอมบอกว่าเมื่อไร บอกแค่ว่า coming months เท่านั้น
ฟีเจอร์ที่ Galaxy S25 จะได้ก่อนใครคือ screen sharing หรือการแชร์หน้าจอให้ Gemini มองเห็นแล้วช่วยเราทำงาน กับ live video streaming ที่เปิดกล้องถ่ายวิดีโอไปเรื่อยๆ แล้วให้ Gemini ดูตามแล้วอธิบายสิ่งที่มองเห็น ซึ่งเป็นฟีเจอร์แบบเดียวกับ GPT-4o ที่ OpenAI เคยนำมาโชว์ในช่วงเวลาไล่เลี่ยกัน
ที่มา - Google
กูเกิลเปิดตัวฟีเจอร์ AI และ Gemini ชุดใหญ่ในงานเปิดตัว Galaxy S25 เมื่อคืนนี้ และแน่นอนว่าหลายอย่างเป็นฟีเจอร์เอ็กซ์คลูซีฟของ Galaxy S25 ช่วงเวลาหนึ่งเช่นเคย (เหมือนกับ Circle to Search ในปีที่แล้ว)
Gemini Live ผู้ช่วยส่วนตัวที่สนทนาด้วยเสียง เพิ่มการใส่รูปภาพ ไฟล์ และวิดีโอจาก YouTube เพื่อเป็นข้อมูลเพิ่มเติมให้ Gemini ได้ด้วย เช่น สรุปสาระจากคลิปใน YouTube, ถ่ายภาพสิ่งที่สงสัยแล้วถามข้อมูลจาก Gemini
ฟีเจอร์นี้ใช้ได้กับ S24, S25 และ Pixel 9 ก่อน แล้วจะค่อยๆ ขยายไปยังอุปกรณ์แอนดรอยด์รุ่นอื่นต่อไป
ตัว Gemini Live ยังสามารถเรียกจากปุ่มด้านข้างเครื่อง (ปุ่ม Power) ของ Galaxy S25 ได้ทันทีแล้ว (Bixby จะกลับมาไหม?)
ซัมซุงเปิดตัวสมาร์ทโฟนซีรีส์ Samsung Galaxy S25 ทำงานผ่านชิป Snapdragon 8 Elite for Galaxy (3nm) เพิ่มประสิทธิภาพ NPU 40% CPU +37% และ GPU +30% รวมทั้ง Vapor Chamber มีขนาดใหญ่ขึ้น
Blognone ได้มีโอกาสชม Galaxy S25 โดยรวมยังคงเน้นฟีเจอร์ปัญญาประดิษฐ์ ซึ่งได้เพิ่มฟีเจอร์ผู้ช่วยส่วนตัวเข้ามาใหม่ และเป็นครั้งแรกที่ Gemini Live จะรองรับการใช้งานภาษาไทย (สมบูรณ์แบบ 7 ก.พ. 2025) ส่วนฟีเจอร์อื่น ๆ มีการอัปเกรดให้มีประสิทธิภาพมากขึ้น ทั้งด้านการค้นหา ภาษา และการแก้ไขภาพ
กูเกิลปล่อยโมเดล Gemini 2.0 Flash Thinking เวอร์ชั่น exp-01-21 อัพเดตจากเวอร์ชั่นเดิมเมื่อเดือนธันวาคมที่ผ่านมา โดยเวอร์ชั่นนี้ผลทดสอบระดับสูงทำได้ดีขึ้นอย่างก้าวกระโดด
เวอร์ชั่นนี้ทำผลทดสอบ AIME (math) ได้ 73.3% และ GPQA Diamond (science) ได้ 74.2% เทียบกับ OpenAI o1 ที่ได้ AIME 78% และ GPQA ที่ 76% แม้ยังตามอยู่แต่ Gemini 2.0 Flash Thinking ก็ทำงานค่อนข้างเร็ว มีความสามารถอ่านอินพุตถึง 1 ล้านโทเค็น และสามารถรันโค้ดได้อัตโนมัติ
ฟีเจอร์ของโมเดลคิดก่อนตอบนี้ยังไม่เทียบเท่าโมเดลปกติ โดยยังขาดความสามารถค้นเว็บอัตโนมัติและการส่งเอาท์พุตเป็น JSON ตอนนี้โมเดลยังเปิดให้ใช้งานใน Google AI Studio เท่านั้น
กูเกิลประกาศความร่วมมือกับ The Associated Press หรือสำนักข่าว AP เพื่อให้ฟีดเนื้อหาข่าวที่เป็นปัจจุบันสำหรับแสดงผลในแอป Gemini ปัญญาประดิษฐ์ของกูเกิล
กูเกิลนั้นมีความร่วมมือกับ AP มานานแล้วสำหรับการแสดงเนื้อหาข่าวบน Google Search แต่ความร่วมมือนี้ได้ขยายมาสู่ Gemini ซึ่งตัวแทนของ AP บอกว่าบริษัทยินดีที่กูเกิลให้ความสำคัญกับเนื้อหาข่าว และนำมาใช้พัฒนาผลิตภัณฑ์ Generative AI
ที่มา: กูเกิล
@OnLeaks นักปล่อยข้อมูลหลุดสายมือถือชื่อดัง โพสต์คลิปโปรโมท Samsung Galaxy S25 แม้ภายหลังคลิปถูกลบไปตามคำขอของซัมซุง แต่ช่วยให้เราได้ข้อมูลเพิ่มเติมว่า ซัมซุงจะโปรโมทฟีเจอร์ไหนบ้างของ Galaxy S25
กูเกิลประกาศเพิ่มความสามารถ Gemini หรือ Google AI ให้กับแอปอย่าง Gmail, Docs, Meet และแอปอื่น สำหรับลูกค้า Google Workspace Business จากก่อนหน้านี้ใช้งานได้เฉพาะแอปแยก Gemini ถ้าหากต้องการความสามารถบนแอปต้องจ่ายเงินเพิ่มต่อ User
กูเกิลบอกว่าความสามารถที่เพิ่มมานี้ ทำให้ลูกค้าองค์กรสามารถเรียกใช้ Gemini จาก Side Panel ในแอป เพื่อช่วยจัดการงานต่าง ๆ ได้เร็วขึ้น และยังได้ใช้งาน NotebookLM Plus ด้วย
กูเกิลประกาศข่าวสั้นๆ ของแพลตฟอร์ม Google TV ในงาน CES 2025 เป็นอย่างที่หลายคนคาดเดาได้ไม่ยากคือ จะเพิ่มฟีเจอร์ Gemini ช่วยให้ผู้ใช้สั่งงานได้อย่างเป็นธรรมชาติ
นอกจากการสั่งงาน ถามตอบข้อมูล Gemini ยังจะช่วยสร้างภาพพื้นหลังแบบคัสตอม, แสดงสรุปข่าวสารประจำวันบนหน้าจอทีวี และควบคุมอุปกรณ์สมาร์ทโฮมในบ้านด้วย
ฟีเจอร์ Gemini บน Google TV จะเปิดให้ใช้งานภายในปี 2025 กับอุปกรณ์บางรุ่น ที่ยังไม่บอกว่ารุ่นไหนบ้าง
ที่มา - Google
กูเกิลได้จัดการประชุมพนักงานเกี่ยวกับแผนกลยุทธ์ในปี 2025 เมื่อสัปดาห์ก่อน ซึ่ง CNBC ได้ข้อมูลเสียงบันทึกการประชุม มีหลายประเด็นที่น่าสนใจ
Sundar Pichai ซีอีโอกูเกิล บอกว่าปี 2025 จะเป็นปีที่สำคัญมาก เขาต้องการให้กูเกิลขับเคลื่อนไปรวดเร็วทั้งบริษัท เดิมพันตอนนี้สูง เราต้องปลดล็อกเทคโนโลยี ที่สามารถนำไปแก้ปัญหาแท้จริงของผู้คนให้ได้
TechCrunch อ้างข้อมูลจากพนักงานสัญญาจ้างที่ทำงานให้โครงการปรับปรุงความสามารถปัญญาประดิษฐ์ Gemini ของกูเกิล บอกว่ากูเกิลใช้ผลลัพธ์ที่ได้จากโมเดล Claude ของ Anthropic ในการเปรียบเทียบกับผลลัพธ์ของ Gemini
หน้าที่ของพนักงานกลุ่มนี้คือการให้คะแนนความแม่นยำของผลลัพธ์ของ AI ในด้านต่าง ๆ เช่น การให้ข้อมูลแม่นยำ หรือการตอบให้เข้าประเด็น รวมทั้งให้ความเห็นสำคัญว่าคำตอบระหว่าง Gemini AI กับ "โมเดล AI ที่ไม่ระบุ" ใครดีกว่ากัน
ถึงแม้ในการทดสอบกูเกิลจะไม่ได้บอกว่าโมเดลอื่นที่ว่าเป็นโมเดล AI อะไร แต่พนักงานบางคนพบว่าคำตอบบางครั้งก็เริ่มว่า "I am Claude, created by Anthropic." จึงทราบว่ากูเกิลใช้ Claude ในการเปรียบเทียบ
กูเกิลปล่อยโมเดล Gemini สองรุ่นพิเศษ คือ Gemini 2.0 Flash Thinking และ LearnLM ให้ใช้งานใน AI Studio โดยทั้งสองรุ่นยังเป็นรุ่นทดสอบอยู่
Gemini 2.0 Flash Thinking ถูกฝึกให้คิดการทำงานเป็นขั้นๆ ทำให้สามารถคิดงานที่ซับซ้อน ปัญหาเชาว์ที่ต้องคิดหลายชั้น ผลทดสอบตอนนี้มีเพียง LM Arena ที่ออกมาระบุว่าโมเดลนี้ขึ้นอันดับหนึ่งการทดสอบแทบทุกหมวด ยกเว้น Math Arena ที่ยังเป็นรอง o1-preview อยู่แต่ก็ใกล้เคียงกันขึ้นมาก จากเดิมที่ Gemini Exp 1206 ตามหลัง o1-preiew และ o1-mini
ขยันปล่อยของใหม่กันมาทุกวัน หลังจากเปิดตัว Gemini 2.0 Flash โมเดลตัวแรกในชุด Gemini 2.0 ซึ่งยังเป็นโมเดลขนาดเล็กที่สุด
กูเกิลก็เดินหน้าปล่อยโมเดลตัวใหม่ตามมาทันที ใช้ชื่อว่า Gemini-Exp-1206 เป็นโมเดลรุ่นทดสอบในตระกูล Gemini 2.0 Experimental Advanced ที่บอกว่ามีความสามารถสูงขึ้น ทั้งในเรื่องการเขียนโค้ด แก้โจทย์คณิตศาสตร์ การให้เหตุผล การทำตามคำสั่งเป็นขั้นตอน ฯลฯ
กูเกิลไม่ได้เปิดเผยตัวเลขเบนช์มาร์คเหมือนกับ Gemini 2.0 Flash แต่มีคนลองรันทดสอบกับบางงาน เช่น Text2SQL แล้ว พบว่า Gemini-Exp-1206 ให้ผลออกมาดีที่สุด
โมเดล Gemini-Exp-1206 เปิดให้ลูกค้าแพ็กเกจ Gemini Advanced แบบเสียเงินลองใช้งานแล้ว
กูเกิลอัพเกรดความสามารถของ Gemini Code Assist บริการ AI ช่วยแนะนำโค้ดที่เปิดตัวในเดือนเมษายน 2024
อย่างแรกคือการปรับมาใช้โมเดล Gemini 2.0 Flash ตัวใหม่ ให้คำตอบมีคุณภาพสูงขึ้น และระยะเวลาการตอบสั้นลง
กูเกิลเปิดบริการ Google Agentspace บริการแชตกับข้อมูลภายในองค์กรที่สามารถเชื่อมกับแหล่งข้อมูลต่างๆ ไม่ว่าจะเป็น Google Drive, Sharepoint หรือแอปพลิเคชั่นงานอย่าง ServiceNow, Jira
แนวทางการใช้งาน คือการสร้าง agent สำหรับงานประเภทต่างๆ เช่น ฝ่ายบุคคลต้องการสร้าง HR Agent เพื่อตอบคำถามเกี่ยวกับสวัสดิการ และกฎการทำงานต่างๆ หรือฝ่ายการเงินอาจจะสร้าง agent สำหรับการเบิกค่าใช้จ่ายต่างๆ บริการนี้รวมเอา NotebookLM Enterprise ไว้ในตัว ทำให้สามารถค้นข้อมูลจากแหล่งต่างๆ รวมเอาเป็นรายงานฉบับเดียว แล้วสร้าง podcast ไว้ฟังสรุปได้ทีเดียว