Cụ thể, kỹ thuật này giúp rút ngắn thời gian huấn luyện khoảng 81%, mở ra khả năng triển khai các mô hình AI chính xác và hiệu quả hơn trên những thiết bị có tài nguyên hạn chế như cảm biến, đồng hồ thông minh hay điện thoại di động - trong khi dữ liệu cá nhân của người dùng vẫn được bảo vệ.

Ảnh bài 38.png
Mô hình AI bảo vệ dữ liệu người dùng trên thiết bị cá nhân. Ảnh: Midjourney

Phương pháp này cải thiện hiệu quả một kỹ thuật gọi là học liên kết (federated learning). Đây là cách huấn luyện AI trong đó nhiều thiết bị kết nối với nhau cùng tham gia xây dựng một mô hình chung. Thay vì thu thập toàn bộ dữ liệu người dùng về một máy chủ trung tâm, mô hình AI sẽ được gửi từ máy chủ đến từng thiết bị. Mỗi thiết bị dùng dữ liệu cục bộ của mình để huấn luyện mô hình, sau đó chỉ gửi phần cập nhật mô hình trở lại máy chủ. Nhờ vậy, dữ liệu gốc vẫn nằm trên thiết bị cá nhân, giúp giảm nguy cơ rò rỉ thông tin nhạy cảm.

Cách tiếp cận này đặc biệt quan trọng trong các lĩnh vực đòi hỏi bảo mật cao như y tế, tài chính, bảo hiểm hay chăm sóc sức khỏe cá nhân. Thiết bị đeo có thể học từ dữ liệu sức khỏe để cải thiện dự báo rủi ro mà không cần gửi thông tin nhạy cảm lên máy chủ; ứng dụng tài chính cũng có thể phát hiện giao dịch bất thường mà không tập trung dữ liệu cá nhân. Tuy nhiên, học liên kết gặp thách thức khi các thiết bị có năng lực bộ nhớ, tính toán, pin và kết nối rất khác nhau, khiến quá trình huấn luyện dễ bị chậm hoặc giảm hiệu quả.

Theo Irene Tenison, nghiên cứu sinh MIT và tác giả chính của nghiên cứu, mục tiêu của công trình là đưa AI từ các máy chủ lớn đến những thiết bị nhỏ mà con người sử dụng hằng ngày. Để làm điều này, nhóm MIT phát triển FTTE, một khung kỹ thuật giúp giảm gánh nặng bộ nhớ và truyền dữ liệu trong học liên kết, đồng thời phù hợp với mạng lưới thiết bị có năng lực tính toán, lưu trữ và kết nối rất khác nhau.

FTTE có ba điểm đổi mới chính. Thứ nhất, thay vì gửi toàn bộ mô hình AI đến mọi thiết bị, hệ thống chỉ gửi một phần tham số cần thiết, qua đó giảm đáng kể yêu cầu bộ nhớ. Các tham số này được lựa chọn bằng một quy trình tìm kiếm nhằm cân bằng giữa độ chính xác của mô hình và giới hạn bộ nhớ của thiết bị yếu nhất trong mạng lưới.

Thứ hai, FTTE sử dụng cơ chế bán bất đồng bộ: máy chủ không chờ tất cả thiết bị phản hồi, mà cập nhật mô hình khi đã nhận đủ một lượng dữ liệu nhất định. Nhờ vậy, các thiết bị mạnh không bị “kẹt” vì những thiết bị chậm hơn.

Thứ ba, hệ thống gán trọng số thấp hơn cho các cập nhật đến muộn hoặc đã lỗi thời, giúp giảm nguy cơ làm chậm quá trình học và suy giảm độ chính xác.

Theo Tenison, cơ chế bán bất đồng bộ của FTTE giúp các thiết bị yếu vẫn có thể tham gia huấn luyện và đóng góp dữ liệu, nhưng không làm toàn bộ hệ thống bị đình trệ. Nói cách khác, phương pháp này cân bằng giữa tính bao trùm và hiệu quả: không loại bỏ thiết bị có năng lực thấp, đồng thời tránh để các thiết bị mạnh phải chờ đợi và lãng phí tài nguyên.

Trong các mô phỏng với hàng trăm thiết bị không đồng nhất, nhiều mô hình và bộ dữ liệu khác nhau, FTTE giúp quá trình huấn luyện hoàn thành nhanh hơn trung bình 81% so với học liên kết tiêu chuẩn. Phương pháp này cũng giảm 80% chi phí bộ nhớ trên thiết bị và 69% khối lượng dữ liệu truyền tải, trong khi vẫn duy trì độ chính xác gần tương đương.

Dù có thể đánh đổi bằng mức giảm nhẹ về độ chính xác, lợi ích về tốc độ, pin và khả năng triển khai rộng rãi là rất đáng kể.

Một điểm đáng chú ý khác là FTTE cho thấy khả năng mở rộng tốt. Khi số lượng thiết bị trong mạng lưới tăng lên, phương pháp này thậm chí còn tạo ra mức cải thiện hiệu năng rõ rệt hơn. Ngoài các mô phỏng, nhóm nghiên cứu cũng đã thử nghiệm FTTE trên một mạng nhỏ gồm các thiết bị thật với năng lực tính toán khác nhau.

Ý nghĩa của nghiên cứu không chỉ nằm ở cải tiến kỹ thuật, mà còn ở khả năng mở rộng lợi ích của AI đến những bối cảnh thiếu nguồn lực. Không phải ai cũng sở hữu điện thoại thông minh đời mới hay thiết bị đeo cao cấp. Ở nhiều quốc gia đang phát triển, người dùng có thể chỉ có các thiết bị di động cấu hình thấp. Với FTTE, các mô hình AI bảo vệ quyền riêng tư có thể được huấn luyện và triển khai hiệu quả hơn ngay cả trong những điều kiện như vậy.

Trong tương lai, nhóm nghiên cứu muốn tiếp tục tìm hiểu cách FTTE có thể cải thiện hiệu năng cá nhân hóa của mô hình AI trên từng thiết bị, thay vì chỉ tối ưu hiệu năng trung bình của toàn hệ thống. Họ cũng dự định tiến hành các thử nghiệm quy mô lớn hơn trên phần cứng thực tế.

Nếu thành công, hướng tiếp cận này có thể góp phần đưa AI ra khỏi phạm vi các trung tâm dữ liệu lớn, tiến gần hơn tới đời sống hằng ngày - nơi những thiết bị nhỏ bé nhưng giàu dữ liệu cá nhân có thể học hỏi, thích ứng và hỗ trợ con người một cách an toàn hơn.

(Nguồn: MIT News)