Hai mô hình AI của Apple được đào tạo bằng chip do Google thiết kế. CNBC nhận định đây là dấu hiệu cho thấy các “ông lớn” công nghệ đang tìm kiếm thay thế cho sản phẩm của Nvidia khi nói đến đào tạo AI tối tân.

Việc lựa chọn bộ xử lý tensor (TPU) của Google được nêu chi tiết trong báo cáo kỹ thuật ngày 30/7 của Apple. Cùng ngày, nhà sản xuất iPhone đã phát hành bản xem trước Apple Intelligence cho một số thiết bị.

r67he30h.png
Apple vừa phát hành bản xem trước của Apple Intelligence vào ngày 29/7. Ảnh: Apple

Những bộ xử lý đồ họa (GPU) đắt tiền của Nvidia đang thống trị thị trường chip đào tạo AI tiên tiến. Chúng “gây sốt” trong vài năm qua vì rất khó đặt mua số lượng lớn như mong muốn. OpenAI, Microsoft, Anthropic đều dùng GPU Nvidia để đào tạo các mô hình của mình, trong khi những hãng khác, bao gồm Google, Meta, Oracle, Tesla... dùng chúng để xây dựng hệ thống và sản phẩm AI.

CEO Meta Mark Zuckerberg và CEO Alphabet Sundar Pichai gần đây ám chỉ họ và các hãng khác trong ngành có thể đang chi quá nhiều cho hạ tầng AI, nhưng thừa nhận rủi ro lớn nếu không làm như vậy. Trong chương trình podcast với Bloomberg, Zuckerberg nói rằng “nhược điểm của việc đi sau là bạn bị loại bỏ khỏi công nghệ quan trọng nhất trong 10-15 năm tới”.

Apple không nêu đích danh Google và Nvidia trong báo cáo dài 47 trang, song lưu ý mô hình nền tảng Apple (AFM) và máy chủ AFM được đào tạo trên “cụm đám mây TPU”. Điều đó đồng nghĩa công ty đã thuê máy chủ từ một nhà cung cấp đám mây để thực hiện các tính toán. Theo hãng công nghệ Mỹ, hệ thống này giúp họ đào tạo mô hình AFM hiệu quả hơn và khả năng mở rộng tốt hơn.

Trước đây, Apple từng nói việc suy luận – sử dụng mô hình AI được đào tạo trước và vận hành để tạo ra nội dung hoặc dự đoán – sẽ diễn ra một phần trên chip riêng trong các trung tâm dữ liệu.

Đây là lần thứ hai “táo khuyết” công bố báo cáo kỹ thuật về các hệ thống AI. Hồi tháng 6, công ty chỉ nói đang dùng TPU trong khi phát triển các mô hình AI. Báo cáo cho thấy, AFM trên thiết bị (on-device) được đào tạo dựa trên 204 chip TPU v5p, loại TPU hiện đại nhất, được phát hành lần đầu tháng 12/2023. AFM máy chủ được đào tạo trên 8.192 chip TPU v4.

Theo website của Google, chi phí đối với các TPU mới nhất là chưa tới 2 USD/giờ sử dụng nếu đặt hàng trong 3 năm. Google giới thiệu TPU vào năm 2015, dùng nội bộ và chỉ phát hành rộng rãi vào năm 2017. Chúng nằm trong số các con chip tùy biến hoàn chỉnh nhất dành cho AI.

Dù vậy, Google vẫn là một trong những khách hàng lớn nhất của Nvidia. Công ty dùng GPU Nvidia để đào tạo mô hình AI và cũng bán quyền truy cập chip Nvidia qua đám mây.

Apple tiết lộ kế hoạch AI muộn hơn các đồng nghiệp khác. Apple Intelligence bao gồm một số tính năng mới như Siri được cải tiến, xử lý ngôn ngữ tự nhiên tốt hơn, tóm tắt văn bản bằng AI. Trong năm tới, công ty dự định triển khai nhiều tính năng hơn dựa trên AI tạo sinh như tạo hình ảnh, biểu tượng cảm xúc...

(Theo CNBC, Apple)