หลัง Donald Trump รับตำแหน่งประธานาธิบดี และเซ็นคำสั่งบริหารห้ามหน่วยงานของรัฐบาลระบุเพศ LGBTQ+ ให้เหลือเฉพาะเพศชายและหญิงเท่านั้น
OpenAI เปิดตัวความสามารถใหม่ของ ChatGPT เรียกชื่อว่า Deep Research สำหรับการค้นหา วิเคราะห์ รวบรวมข้อมูลในเชิงลึก ที่มาพร้อมผลลัพธ์ซึ่งอธิบายเป็นลำดับขั้นตอน และให้แหล่งอ้างอิงประกอบ
OpenAI บอกว่า Deep Research เหมาะสำหรับคนทำงานที่ต้องอาศัยความรู้เชิงลึกเฉพาะด้าน เช่น การเงิน วิทยาศาสตร์ วิศวกรรม กฎหมาย ซึ่งวิธีการค้นหาข้อมูลเชิงลึกเดิมนั้นใช้เวลามาก เพราะต้องยืนยันความน่าเชื่อถือข้อมูลอย่างเป็นขั้นตอน นอกจากนี้ Deep Research ยังสามารถประยุกต์ใช้กับการค้นหาเปรียบเทียบข้อมูลสินค้าที่มีรายละเอียดเปรียบเทียบเยอะ เช่น รถยนต์ เครื่องใช้ไฟฟ้า
ทีมนักวิจัยจาก University of Waterloo ในแคนาดา ค้นพบการปรับแต่งโค้ดเคอร์เนลลินุกซ์ 30 บรรทัด สามารถช่วยลดการใช้พลังงานในศูนย์ข้อมูลลงได้สูงสุด 30%
โค้ดส่วนนี้เกี่ยวกับวิธีการประมวลผลแพ็คเก็ตของระบบเครือข่าย ซึ่งทีมนักวิจัยพบว่าเดิมทีเคอร์เนลลินุกซ์ประมวลผลได้ไม่มีประสิทธิภาพมากนัก มีปัญหาเรื่อง interruption หรือการถูกขัดจังหวะการทำงานของซีพียู จึงปรับแก้โค้ดเพียงเล็กน้อย (ทีมวิจัยบอกว่าไม่ได้เพิ่มอะไรเลย แค่สลับตำแหน่ง) ช่วยให้ใช้แคชของซีพียูอย่างมีประสิทธิภาพมากขึ้น
งานวิจัยนี้ถูกตีพิมพ์ และนำเสนอในงาน ACM SIGMETRICS 2024 ส่วนแพตช์ตัวนี้ถูกรวมเข้ากับเคอร์เนลเวอร์ชัน 6.13 ที่เพิ่งออกไป
องค์กรวิจัย Pew Research Center รายงานผลสำรวจว่าวัยรุ่นในอเมริกาอายุ 13-17 ปี ใช้ ChatGPT ช่วยทำการบ้านหรือช่วยงานโรงเรียนมากน้อยแค่ไหน พบว่า 26% บอกว่าใช้ ChatGPT ช่วยทำงานโรงเรียน ผลสำรวจปี 2024 นี้จึงเป็นตัวเลขที่เพิ่มขึ้นเท่าตัวจากปี 2023 ซึ่งอยู่ที่ 13%
อย่างไรก็ตามตัวเลขนี้อาจบอกได้ว่าวัยรุ่นยังนำ ChatGPT มาใช้กับงานโรงเรียนไม่มากนัก เพราะอีก 74% ก็ไม่ได้นำมาใช้ ซึ่งเรื่องนี้ยังเป็นประเด็นที่ถกเถียงกันในแวดวงการศึกษา
นักวิจัยจาก Imperial College London และ University of Graz ในออสเตรีย ได้สอบถามนักศึกษามากกว่า 600 คน เกี่ยวกับประสบการณ์และสิ่งที่พวกเขารู้สึกเมื่อเล่นเกมแบบโอเพนเวิลด์ พบว่าการเล่นเกมประเภทนี้ส่งผลดีต่อสุขภาพจิต ทำให้ผ่อนคลาย มีสมาธิ และช่วยให้ได้พักออกห่างจากโลกความจริง
ทั้งนี้ในการสำรวจวิจัยได้นิยามเกมโอเพนเวิลด์ไว้ว่า เป็นเกมที่มีสภาพแวดล้อมในเกมขนาดใหญ่ เปิดให้ผู้เล่นสามารถเคลื่อนที่ ค้นหา ทำกิจกรรมต่าง ๆ ได้อย่างอิสระ และมีข้อจำกัดในเกมน้อยที่สุด ด้วยเทคโนโลยีในการพัฒนาเกมที่มากขึ้น ทำให้การสร้างสรรค์เกมโอเพนเวิลด์ทำได้ทั้งขนาดที่ใหญ่ขึ้น รูปแบบที่ซับซ้อน เพิ่มจินตนาการในการออกเดินทางค้นหา พร้อมรูปแบบภารกิจที่ไม่มีลำดับขั้นตอนมากนักมากำหนด
ทีมวิจัยจากมหาวิทยาลัย Waterloo รายงานถึงความสำเร็จในการพัฒนาเทคนิคการใช้เรดาร์ในระยะใกล้ผิวหนังเพื่อวัดค่าระดับน้ำตาลในเลือดโดยไม่ต้องเจาะเลือดแบบเดิมๆ
ทีมวิจัยใช้เรดาร์คลื่นความถี่ย่าน 60GHz ด้วยชิป Infineon BGT60TR13C ที่ราคาไม่แพงนัก (ราคาชุดพัฒนาแบบขายปลีกประมาณ 9,000 บาท) ประกบเข้ากับแผ่น meta-surface ที่ช่วยโฟกัสสัญญาณให้ชัดเจนขึ้น เปิดทางให้สามารถวัดระดับน้ำตาลในเลือดได้โดยอาศัยเซ็นเซอร์ที่แปะอยู่บนข้อมือเท่านั้น
ผลที่ได้ตอนนี้ค่อนข้างมีความหวัง โดยระดับสัญญาณที่ได้จากเรดาร์ล้อไปกับระดับน้ำตาลในตัวอย่างจำลองอย่างชัดเจน ตัวเซ็นเซอร์ใช้พลังงานจาก USB และหากมีการปรับปรุงก็น่าจะทำให้ทำงานด้วยแบตเตอรี่ได้ เปิดทางเก็บข้อมูลระดับน้ำตาลต่อเนื่อง
ARPA-H หน่วยงานให้ทุนวิจัยระดับสูงของสหรัฐฯ ประกาศโครงการ Transplantation of Human Eye Allografts (THEA) ที่สนับสนุนหน่วยงานวิจัยให้สามารถปลูกถ่ายดวงตาจนผู้รับดวงตาสามารถกลับมามองเห็นได้
ผู้ได้รับทุนจาก THEA จะวิจัยเทคนิคต่างๆ ที่จำเป็นสำหรับการปลูกถ่ายดวงตา แบ่งเป็นสามด้าน (technical areas - TA) ได้แก่
ตอนนี้มี 4 ทีมวิจัยร่วมโครงการ THEA ได้แก่
DeepMind เปิดตัวโมเดลพยากรณ์อากาศตัวใหม่ชื่อ GenCast ซึ่งพัฒนาขึ้นจากโมเดล GraphCast ของปี 2023
GenCast เป็นโมเดลตระกูล generative ตามชื่อโมเดล ใช้อัลกอริทึมแบบ diffusion ที่เราคุ้นเคยกันในโมเดลสร้างภาพ-เสียง-วิดีโอ สามารถพยากรณ์อากาศระดับละเอียด (0.25° ของละติจูดและลองจิจูด ประมาณ 28x28 ตารางกิโลเมตร) ได้ล่วงหน้า 15 วัน (GraphCast ได้ 10 วัน) ได้แม่นยำกว่าโมเดล ENS ของศูนย์พยากรณ์อากาศยุโรป (European Centre for Medium-Range Weather Forecasts หรือ ECMWF) ซึ่งเป็นโมเดลที่ดีที่สุดในปัจจุบัน
แผนกวิจัยของ DeepMind ขึ้นชื่อเรื่องการนำโมเดล machine learning ไปใช้กับงานวิจัยแขนงต่างๆ ตัวอย่างที่ชัดเจนคือ AlphaFold ใช้ช่วยงานวิจัยโปรตีนจนได้รับรางวัลโนเบลสาขาเคมี
ล่าสุด DeepMind เผยแพร่งานวิจัย AlphaQubit ในวารสาร Nature เป็นการนำเทคนิค machine learning ของ DeepMind ไปช่วยงานวิจัยด้านควอนตัมคอมพิวเตอร์ของทีม Google Quantum AI
NVIDIA ประกาศความร่วมมือกับทีม Google Quantum AI เพื่อช่วยให้กูเกิลสร้างเครื่องคอมพิวเตอร์ควอนตัมได้ดีขึ้นกว่าเดิม โดยให้ยืมซูเปอร์คอมพิวเตอร์ NVIDIA Eos ของตัวเอง รันซิมูเลเตอร์ จำลองการประมวลผลควอนตัมผ่านแพลตฟอร์ม CUDA-Q
ที่ผ่านมา กูเกิลมีงานวิจัยด้านคอมพิวเตอร์ควอนตัมมายาวนาน แต่การสร้างคอมพิวเตอร์ควอนตัมที่มีจำนวน qubit สูงๆ และรันการประมวลผลต่อเนื่องไปนานๆ จะเริ่มเจอปัญหา noise เพิ่มขึ้นจนไม่สามารถประมวลผลต่อได้ ถือเป็นข้อจำกัดสำคัญในการสร้างคอมพิวเตอร์ควอนตัมในปัจจุบัน
DeepMind ปล่อยโมเดลและโค้่ดสำหรับรัน AlphaFold 3 ปัญญาประดิษฐ์ทำนายโครงสร้างโปรตีนรุ่นล่าสุดที่ทำให้ทีมวิจัยได้รับรางวัลโนเบล
โค้ดสำหรับรันนั้นเป็นเปิดซอร์สแบบ CC-BY-NC-SA ห้ามใช้เพื่อการค้า สำหรับตัวโมเดลนั้นต้องส่งข้อมูลให้ทีมงานพิจารณา 2-3 วันทำการก่อนจึงดาวน์โหลดมาใช้งานได้ นอกจากตัวซอฟต์แวร์ที่สามารถนำไปรันได้เองแล้ว DeepMind ยังเปิดบริการ AlphaFold Server สำหรับการรันผ่านคลาวด์
นักวิจัยสามารถใช้งานเพื่อตีพิมพ์รายงานวิจัยจาก AlphaFold ได้ แต่ห้ามนำผลไปฝึกปัญญาประดิษฐ์อื่นๆ ต่อหรือใช้เพื่อการค้าอื่น
ฝ่ายวิจัยพื้นฐานปัญญาประดิษฐ์ของ Meta หรือทีม FAIR เผยแพร่งานวิจัยในการพัฒนา AI ที่สามารถรับรู้ผ่านการสัมผัส เพื่อให้นำไปใช้งานกับหุ่นยนต์ที่เลียนแบบความรู้สึกของมนุษย์ได้ โดยงานวิจัยนี้เป็นความร่วมมือกับบริษัทผู้ผลิตอุปกรณ์เซ็นเซอร์ GelSight และบริษัทหุ่นยนต์ Wonik Robotics
นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนียเบิร์กลีย์ (UC Berkeley) ของสหรัฐอเมริกา ประสบความสำเร็จในการสังเคราะห์วัสดุชนิดใหม่ที่มีประสิทธิภาพกักเก็บคาร์บอนในอากาศได้ดีกว่าเดิม
เทคโนโลยีการกักเก็บคาร์บอน (carbon capture) ถูกพูดถึงมากขึ้นเรื่อยๆ เพื่อลดปริมาณ CO2 แก้ปัญหาเรื่องการเปลี่ยนแปลงสภาพภูมิอากาศ อย่างไรก็ตาม เทคโนโลยีการกักเก็บคาร์บอนในปัจจุบันยังทำงานได้ดีในการดูดคาร์บอนหนาแน่นจากแหล่งเดียว (เช่น ปากปล่องควันโรงงานผลิตไฟฟ้า) หากเราเอามากักเก็บ CO2 ตามท้องถนนทั่วไป มันยังทำงานได้ไม่ดีนัก
Luke Durant อดีตวิศวกร NVIDIA (ทำงานพัฒนา CUDA ตั้งแต่ปี 2010) พบจำนวนเฉพาะใหม่ (2^136,279,841) - 1 หรือ M136279841 เมื่อเขียนฐานสิบมีความยาวทั้งสิ้น 44 ล้านหลัก
กระบวนการพบเลขจำนวนเฉพาะขนาดใหญ่เช่นนี้ไม่สามารถใช้คอมพิวเตอร์ธรรมดาได้ Luke พัฒนาซอฟต์แวร์ที่ทำงานบนชิปกราฟิกบนคลัสเตอร์ขนาดใหญ่ รวมใช้ GPU นับพันตัว กระจายไปตามศูนย์ข้อมูล 24 แห่ง รวม 17 ประเทศ ใช้เวลาประมาณหนึ่งปี ชิป NVIDIA A100 ในไอร์แลนด์ก็รายงานว่าเลข M136279841 น่าจะเป็นจำนวนเฉพาะ จากนั้นใช้เวลาอีกหนึ่งวัน ชิป NVIDIA H100 ก็ยืนยันว่าเลขนี้เป็นจำนวนเฉพาะจริง
สถาบันเทคโนโลยีพระจอมเกล้าเจ้าคุณทหารลาดกระบัง (สจล. หรือ KMITL) เปิดศูนย์วิจัยเซมิคอนดักเตอร์ KMITL Academy of Innovative Semiconductor Manufacturing (KAISEM) ทำหน้าที่เป็นห้องปฏิบัติการกลาง รวมผู้เชี่ยวชาญจากสาขาต่างๆ เช่น วิศวกรรมอิเล็กทรอนิกส์ วิศวกรรมระบบการผลิต และวิศวกรรมวัสดุ มาวิจัยเซมิคอนดักเตอร์ร่วมกัน เพื่อเสริมสร้างศักยภาพให้กับอุตสาหกรรมอิเล็กทรอนิกส์เซมิคอนดักเตอร์ของไทย
ในงานเปิดศูนย์ KAISEM ยังมีการเซ็นบันทึกความเข้าใจ (MOU) กับบริษัท National Instruments (NI) ของสหรัฐ เพื่อนำเครื่องมือและความเชี่ยวชาญของ NI มาใช้ในการเรียนการสอนและการวิจัยของคณะวิศวกรรมศาสตร์ด้วย
มีงานวิจัยจากคณะนักวิจัยชาวจีน ทดลองนำ ChatGPT ไปทำโจทย์โปรแกรมมิ่งจำนวน 728 ข้อ ที่เขียนด้วยภาษาโปรแกรมยอดนิยม 5 ภาษา (C, C++, Java, Python, JavaScript) รวมถึงวิเคราะห์ช่องโหว่ CWE จำนวน 18 ช่องโหว่ แล้วมาประเมินว่าได้ผลลัพธ์ดีแค่ไหน
จากการประเมินของทีมวิจัยพบว่า ChatGPT ทำผลลัพธ์ออกมาได้ค่อนข้างดี (fairly good) ทำโจทย์ระดับง่าย กลาง ยาก ได้คะแนนผ่าน 89%, 71%, 40% ตามลำดับ
อย่างไรก็ตาม จุดอ่อนของ ChatGPT คือทำโจทย์ที่เกิดขึ้นหลังปี 2021 ไม่ค่อยได้ โดยหลายครั้งถึงขั้นไม่เข้าใจคำถามเลยด้วยซ้ำ แม้ว่าเป็นคำถามระดับง่ายก็ตาม อัตราทำโจทย์สำเร็จระดับง่ายลดเหลือ 52% และอัตราทำโจทย์ระดับยากเหลือ 0.66%
สถาบันเทคโนโลยีสารสนเทศและการสื่อสารของญี่ปุ่น หรือ NICT รายงานผลการทดสอบร่วมกับสถาบันอีกหลายแห่ง ในการพัฒนาวิธีส่งข้อมูลผ่านไฟเบอร์ใยแก้วพาณิชย์ ด้วยความเร็วเป็นสถิติใหม่ 402 Tb/s โดยผลทดสอบนี้ถูกนำเสนอในงาน Optical Fiber Communication Conference 2024 ที่แซนดีเอโก
ระยะทางที่ใช้ในการส่งข้อมูลคิดเป็นระยะทาง 50 กิโลเมตร มีการใช้ตัวขยายสัญญาณ 6 ชนิด บนแบนด์วิธว่าง 37 THz เพื่อให้ได้ความเร็วในการส่งข้อมูลที่ระดับ 402 Tb/s ทำให้นอกจากได้ความเร็วที่สูงสุดใหม่ ยังขยายแบนด์วิธส่งข้อมูลเพิ่มอีกด้วย
Mayo Clinic รายงานถึงการพัฒนา RadOnc-GPT ผู้ช่วยวิเคราะห์โรคมะเร็งที่อาศัยข้อมูลการรักษามะเร็งในโรงพยาบาล Mayo Clinic เอง นำมา finetune โมเดล Llama 2 ของ Meta กระบวนการฝึกและการใช้งานทั้งหมดอยู่ในเน็ตเวิร์คของโรงพยาบาลเอง
Google DeepMind เปิดตัวโมเดลปัญญาประดิษฐ์ AlphaFold 3 ที่เป็นปัญญาประดิษฐ์สำหรับการทำนายโครงสร้างของโมเลกุล หลังจากเปิดตัว AlphaFold 2 มาตั้งแต่ปี 2020 และใช้สร้างฐานข้อมูลโครงสร้างโปรตีนเมื่อปี 2022 เปิดให้นักวิจัยเข้าใช้งานได้ฟรี
ทาง DeepMind ระบุว่าจนถึงตอนนี้งานวิจัยที่อ้างอิงกลับมายัง AlphaFold มีจำนวนมากกว่า 20,000 รายงานวิจัย และถูกใช้ในการออกแบบวัคซีนมาลาเรีย, มะเร็ง, ตลอดจนการออกแบบเอนไซม์
ประมาณ 5% ของเคสผู้ป่วยมะเร็งระยะลุกลาม (metastatic) เป็นมะเร็งที่ไม่สามารถระบุต้นกำเนิดได้ ซึ่งมักจะพบโดยเจอเป็นเซลล์มะเร็งกระจายอยู่ในน้ำในช่องอกหรือช่องท้อง ทำให้การวางแผนรักษาทำได้ยาก การวินิจฉัยจะต้องอาศัยผู้เชี่ยวชาญเปรียบเทียบลักษณะภาพเซลล์มะเร็งจากกล้องจุลทรรศน์อย่างละเอียด และต้องตัดชิ้นเนื้อจากอวัยวะต้องสงสัยหลายจุดของผู้ป่วยมาเทียบ
ในประกาศปรับโครงสร้างองค์กรรอบล่าสุดของกูเกิล นอกจากการรวมทีมซอฟต์แวร์ Android/Chrome และฮาร์ดแวร์เข้าด้วยกันเป็นฝ่าย Platforms and Devices ยังมีการเปลี่ยนแปลงฝั่ง AI ด้วยเช่นกัน
การเปลี่ยนแปลงนี้ต่อเนื่องจากการรวมทีม Google Brain กับ DeepMind เป็น Google DeepMind เมื่อ 1 ปีก่อน โดยกูเกิลโยกทีมอื่นๆ ที่เกี่ยวข้องกับบงาน AI เข้ามาอยู่ใต้ Google DeepMind ดังนี้
Human-Centered Artificial Intelligence (HAI) หน่วยงานศึกษาวิจัยด้าน AI ของมหาวิทยาลัย Stanford ออกรายงานประจำปีดัชนีด้าน AI - Artificial Intelligence Index Report 2024 ซึ่งเป็นปีที่ 7 ของรายงานนี้ รวบรวมข้อมูลพัฒนาการของ AI จากแหล่งต่าง ๆ รวมถึงผลกระทบที่เกิดขึ้น
ประเด็นที่สำคัญในรายงานปีนี้มีหลายอย่าง ซึ่งรวบรวมมาดังนี้
คนในแวดวงไอทีอาจรู้จักภาพ Lenna ที่นิยมใช้เป็นภาพทดสอบ image processing กันมายาวนาน ภาพต้นฉบับเป็นภาพถ่ายของนางแบบชาวสวีเดน Lena Forsén ในนิตยสาร Playboy ฉบับปี 1972 แล้วถูก Jamie Hutchinson อาจารย์ที่มหาวิทยาลัย University of Southern California หยิบมาใช้ในงานในเปเปอร์วิจัย เพราะเบื่อภาพถ่ายสต๊อกแบบเดิมๆ แล้ว แต่ก็ได้รับความนิยมและกลายเป็นมีมยุคก่อนอินเทอร์เน็ตที่ถูกใช้ต่อกันมาเรื่อยๆ
นักวิจัยของแอปเปิลเผยแพร่งานวิจัยของ MM1 ซึ่งเกี่ยวกับกระบวนการเทรนข้อมูลแบบผสมผสาน ว่าการเทรนข้อมูลแต่ละรูปแบบที่ต่างกัน ตลอดจนโครงสร้างโมเดล ส่งผลต่อประสิทธิภาพในการทดสอบ AI นั้นอย่างไร
ส่วนหนึ่งของงานวิจัยนี้พบว่าตัวเลือกวิธีเข้ารหัสรูปภาพ และความละเอียดของภาพที่ใช้เทรน มีผลกระทบมากต่อประสิทธิภาพของโมเดล มากกว่าการออกแบบส่วนเชื่อมต่อต่าง ๆ ของข้อมูล นอกจากนี้ยังพบโมเดลขนาด 30 พันล้านพารามิเตอร์ ตัวหนึ่งของ MM1 มีความสามารถในการเรียนรู้จากบริบทข้อมูลดีที่สุด รองรับการ prompt ที่ต่อเนื่องไปเรื่อย ๆ ได้
คณะนักวิจัยจาก University of Shanghai for Science and Technology ในประเทศจีน พัฒนาเทคนิคการเก็บข้อมูลในแผ่นดิสก์แบบแสง (optical disc) ที่มีความจุสูงถึง 100TB ต่อด้าน
เทคนิคแบบใหม่ใช้สถาปัตยกรรมที่เรียกว่า 3D planar recording เป็นฟิล์มโปร่งใส สามารถเก็บข้อมูลได้ถึง 100 เลเยอร์ต่อด้าน (Blu-ray ในปัจจุบันได้ 4 เลเยอร์) รวมแล้ว 0.8 petabits หรือ 100 terabytes ต่อข้าง