Các nhà nghiên cứu kỹ thuật tại Đại học Minnesota Twin Cities vừa phát triển và trình diễn một thiết kế bộ nhớ máy tính mới có thể giảm đáng kể lượng năng lượng mà các hệ thống trí tuệ nhân tạo (AI) tiêu thụ. Nghiên cứu của họ gần đây đã được công bố trên tạp chí Nature, Unconventional Computing.

Hầu hết các hệ thống máy tính hiện đại đều được xây dựng trên cái được gọi là kiến ​​trúc Von Neumann, trong đó các hệ thống logic và bộ nhớ con được tách biệt. Khi hoạt động, dữ liệu chuyển qua lại giữa các mô-đun bộ nhớ và bộ xử lý. Đây cũng là nền tảng vận hành cơ bản của máy tính ngày nay.

25ad880e84b330da9a2518b8b8eae9f7.jpeg
Công nghệ CRAM có thể giảm ít nhất 1.000 lần năng lượng điện toán tiêu thụ. Ảnh: Yahoo Tech

Tuy nhiên, khi tốc độ xử lý nhanh hơn tốc độ vận chuyển dữ liệu ra vào (I/O) thì quá trình truyền dữ liệu trở thành nút thắt cổ chai, ảnh hưởng cả tốc độ xử lý và mức tiêu thụ điện năng. Theo nghiên cứu được đăng tải, việc xáo trộn dữ liệu qua lại tiêu tốn tới 200 lần lượng điện năng mà chính các phép tính thực hiện. Để giải quyết vấn đề này, các nhà khoa học tìm cách đưa bộ phận logic và bộ nhớ lại gần nhau hơn về mặt vật lý.

Trong khi đó, giải pháp của nhóm nghiên cứu Twin Cities là một thiết kế mới, hoàn toàn kỹ thuật số, được đặt ngay trong bộ nhớ (in-memory), có tên bộ nhớ điện toán truy cập ngẫu nhiên (CRAM). Cụ thể, quy trình tính toán “sẽ được tiến hành tự nhiên ngay trong các ô bộ nhớ mà dữ liệu không cần phải đi ra ngoài”.

Để đạt được mục tiêu này, nhóm đã tích hợp trực tiếp lên ô bộ nhớ một linh kiện điện tử mới, dựa trên điện tử học spin (spintronics), từ đó có thể giảm tới 1.000 lần mức tiêu thụ năng lượng của AI.

Chưa dừng lại, con số 1.000 lần mới chỉ là mức tối thiểu. Nhóm nghiên cứu đã thử nghiệm CRAM trên tác vụ phân loại chữ số viết tay MNIST và kết quả cho thấy nó "tiết kiệm năng lượng và thời gian lần lượt là 2.500 lần và 1.700 lần so với hệ thống xử lý gần bộ nhớ tại node công nghệ 16 nm".

Ngành công nghiệp AI mới nổi đang phải đối mặt với các vấn đề đáng kể về tài nguyên. Các GPU ngày càng nhanh hơn, mạnh hơn và có khả năng hơn hỗ trợ phần mềm AI đang ngốn rất nhiều năng lượng. Ví dụ, Blackwell B200 hàng đầu mới nhất của NVIDIA tiêu thụ tới 1.200W và tạo ra rất nhiều nhiệt thải đến mức cần phải làm mát bằng chất lỏng, một hoạt động tốn nhiều tài nguyên khác.

Các gã khổng lồ công nghệ như Google, Amazon và Microsoft đang cố gắng xây dựng cơ sở hạ tầng vật lý cần thiết để thúc đẩy cuộc cách mạng AI sắp tới, đồng nghĩa các trung tâm dữ liệu có quy mô hàng gigawatt, thậm chí một số có nhà máy điện hạt nhân riêng. Do đó, việc tạo ra các tài nguyên tính toán và bộ nhớ tiết kiệm năng lượng hơn sẽ ngày càng trở nên quan trọng đối với khả năng tồn tại lâu dài của công nghệ này.

(Theo Vox, Yahoo Tech)