TPU: CHIP CỦA TƯƠNG LAI1
Xây Dựng một Chip AI Tiết Kiệm cho Google
Một tá Trung Tâm Dữ Liệu Mới2
Tác giả: Cade Metz3, 04.05.17
(Courtesy of WIRED)
Người dịch: Võ Thành Minh Tuệ & Nguyễn Xuân Xanh
Lời nói đầu của người dịch. Đằng sau của cuộc Đại chiến giữa máy và người trong cờ vây (xem các bài trước) là một cái chip có tên TPU, Tensor Processing Unit, một “đặc sản” còn bí mật hiện nay của Google, cái đã giúp cỗ máy AlphaGo chiến thắng, và đồng thời nâng cấp ngành Trí tuệ nhân tạo lên một tầm mới. Nó có khả năng nhân năng lực máy học lên đến ba thế hệ, và có thể là tương lai của các hệ thống trí tuệ nhân tạo.
Google là công ty đang vận hành những mạng máy tính lớn nhất thế giới, một hệ thống bao gồm các trung tâm dữ liệu (data) được chế tạo riêng (bởi Google), có độ lớn của những nhà kho khổng lồ, kết nối 15 vị trí trên bốn lục địa. Nhưng khoảng 6 năm trước, khi Google tiến hành một phần mềm mới để nhận diện giọng nói trên các điện thoại Android, các kỹ sư của công ty lo lắng rằng ngay cả hệ thống này cũng không đủ mạnh để chạy. Nếu mỗi chiếc điện thoại Android trên thế giới sử dụng máy tìm tiếng nói mới của Google chỉ trong 3 phút một ngày, những kỹ sư này nhận xét, công ty sẽ cần đến hai lần số lượng các trung tâm dữ liệu.
Vào lúc đó, Google chỉ mới bắt đầu đẩy các dịch vụ nhận ra tiếng nói bằng các mạng nơ-ron sâu (deep neural networks), các hệ thống toán học phức hợp có thể học những nhiệm vụ đặc biệt bằng cách phân tích những số lượng khổng lồ dữ liệu. Trong những năm gần đây, dạng thức này của máy học (machine learning) đã tái phát minh một cách nhanh chóng không chỉ nhận dạng tiếng nói, nhưng cả nhận diện hình ảnh, công cụ tìm kiếm Internet, và nhiều thứ nữa. Bằng cách đi dâu vào phương pháp này, Google đã thấy độ sai lệch giảm bớt ngót 25 phần trăm. Nhưng sự chuyển dịch đòi hỏi thêm rất nhiều mã lực.
Thay vì tăng gấp đôi số lượng trung tâm dữ liệu, Google đã xây dựng chip máy tính riêng của họ đặc biệt để chạy các mạng nơ-ron sâu, gọi lại Đơn vị Xử lý Tenxơ (Tensor Processing Unit), viết tắt TPU. “Sẽ có ý nghĩa nếu có một giải pháp hiệu quả hơn về năng lượng”, Norm Jouppi nói, một trong hơn 70 kỹ sư hoạt động cho cái chip. Thực tế, TPU có thể làm tốt hơn các bộ xử lý tiêu chuẩn cơ bản từ 30 đến 80 lần trong độ đo TOPS/Watt, một độ đo của tính hiệu quả.
Một Lỗ hổng Thị trường của Mạng Nơ-ron
Google đầu tiên trình diện bộ xử lý này tháng Năm vừa qua, nhưng chỉ cho biết ít chi tiết. Bây giờ, Jouppi và phần còn lại của team đã công bố một bài viết chi tiết về đề án, giải thích chip hoạt động thế nào, và những vấn đề đặc biệt mà nó giải quyết. Google sử dụng chip chỉ cho việc thực thi (executing) các mạng nơ-ron, vận hành chúng khi chẳng hạn có ai nói một lệnh vào phôn Android. Nó không được dùng để huấn luyện mạng nơ-ron trước tiên. Nhưng như Jouppi giải thích, ngay cả điều đó có thể tiết kiệm cho công ty đáng kể. Google đã không phải xây dựng thêm 15 trung tâm dữ liệu.
Nhiều Chip hơn nữa
Chip TPU tượng trưng cho một sự chuyển dịch lớn hơn trong thế giới của các bộ xử lý máy tính. Trong lúc Google, Facebook, Microsoft, và các công ty internet khổng lồ khác xây dựng ngày càng nhiều các loại dịch vụ sử dụng các mạng nơ-ron sâu, tất cả họ đã cần đến những chip đặc trị cho cả hai huấn luyện và thi hành những mô hình AI này. Phần lớn công ty huấn luyện các mô hình của họ bằng cách sử dụng GPU (Graphics Processing Unit), các chip nguyên thủy được thiết kế xử lý đồ họa cho trò chơi, và các ứng dụng thị giác cao, nhưng lại không thích hợp cho loại toán học ở trung tâm của các mạng nơ-ron. Và vài công ty, trong đó có Microsoft và Baidu, người khổng lồ internet Trung Quốc, đã nghiên cứu sử dụng các chip khác để chạy các chương trình nơ-ron, rất giống Google từng làm với TPU.
Sự khác biệt là Google đã xây dựng chip riêng của mình từ số không. Như một biện pháp giảm chi phí và cải thiện độ hiệu quả của đế chế trực tuyến vô cùng lớn, công ty Google đã nghiên cứu và thiết kế rất nhiều phần cứng cho trung tâm dữ liệu riêng họ, bao gồm các máy cung cấp dịch vụ, và phần cứng kết nối mạng (networking gear). Bây giờ, Google đã đẩy tiến trình này xuống tuốt các chip máy tính.
Trong quá trình, nó cũng chuyển dịch cả một phần lớn thị trường của chip. Vì Google thiết kế riêng cho họ, chẳng hạn, nên họ không cần mua thêm các bộ xử lý khác để chạy các mạng nơ-ron. Việc sử dụng đồ-nhà của Google ngay cả cho những nhiệm vụ chuyên biệt đã có những tác động rộng; giống như Facebook, Amazon và Microsoft, Cty Google từng là một trong những người mua chip lớn nhất trên trái đất. Bây giờ, những nhà làm chip lớn – bao gồm, quan trọng nhất, cả Intel – đang xây dựng một dòng processor mới trong nỗ lực kéo thị trường về hướng họ.
Tập trung Nhưng Linh hoạt
Jouppi gia nhập Google cuối năm 2013 để xây dựng cái đã trở thành TPU, sau khi đã làm công việc nghiên cứu phần cứng ở những cty như HP và DEC, cái nôi cho nhiều nhà thiết kế phần cứng hàng đầu của Google. Ông nói, công ty xem việc chuyển các mạng nơ-ron vào các FPGA, loại chip có thể lập trình được mà Microsoft sử dụng. Con đường này sẽ không kéo dài bao lâu, và tính thích nghi của các FPGA có nghĩa rằng công ty có thể tái lập trình các chip cho những nhiệm vụ khác theo yêu cầu. Nhưng các phép kiểm tra cho thấy các chip này sẽ không thể cung cấp sự tăng vận tốc cần thiết. “Có rất nhiều chi phí overhead với các chip lập trình được”, ông giải thích. “Sự phân tích của chúng tôi chứng minh rằng một FPGA sẽ không thể nhanh hơn một GPU.”
Cuối cùng, nhóm nghiên cứu chọn một ASIC, một loại chip được xây dựng ngay từ đầu cho một nhiệm vụ đặc biệt. Theo Jouppi, bởi vì Google thiết kế con chip một cách đặc biệt cho các mạng nơ-ron, nó có thể chạy chúng 15 đến 30 lần nhanh hơn các chip có mục đích chung được xây dựng với những kỹ thuật chế tạo tương tự. Điều này nói lên, con chip phù hợp với mọi mô hình mạng nơ-ron – ít nhất như ở dạng chúng đang tồn tại hôm nay – bao gồm tất cả mọi thứ từ các mạng nơ-ron tích chập (convolutional neural networks) được dùng trong nhận dạng ảnh cho đến mạng ký ức-dài-ngắn-hạn (long-short-term-memory) được sử dụng để nhận diện lệnh tiếng nói. “Nó không phụ thuộc vào một mô hình nào”, anh ta nói.
Google đã sử dụng TPU cho ngót 2 năm, áp dụng nó vào tất cả mọi thứ, từ nhận diện ảnh đến máy dịch, đến AlphaGo, chiếc máy đã mở khóa được cờ vây cổ đại mùa xuân rồi. Một kết quả không tồi – đặc biệt khi biết rằng nó đã giúp Google tiết kiệm vài tá trung tâm dữ liệu./.
Chú giải:
- Xem các bài Cuộc đại chiến giữa Máy và Người trong cờ vây: Phần I và Phần II
- Bài gốc: https://www.wired.com/2017/04/building-ai-chip-saved-google-building-dozen-new-data-centers/
- Cade Metz là một cây bút lâu năm trước đây của tạp chí WIRED với các lãnh vực bao gồm Google, Facebook, trí tuệ nhân tạo, bitcoin, trung tâm dữ liệu, chip máy tính, các ngôn ngữ lập trình và nhiều thứ khác đang làm thay đổi thế giới.