Google phát triển chip TPU cho machine learning

(PCWorldVN) Không phải CPU, GPU hay FPGA, mà là TPU. Google vừa cho biết bộ xử lý Tensor Processing Unit của họ có tính năng machine learning cao cấp, với sức mạnh kết hợp của ba thế hệ trước gộp lại.

Sundar Pichai, CEO của Google, cho biết tại hội nghị các nhà phát triển I/O của Google vừa diễn ra: "TPU có tốc độ xử lý mỗi watt cao hơn mọi loại GPU và FPGA hiện có trên thị trường".

TPU được Google giữ kín đến phút cuối, nhưng Pichai nói rằng chip này hiện có trong máy tính AlphaGo, là hệ thống trí tuệ nhân tạo đã đánh bại kiện tướng cờ vây Lee Sedol hồi đầu năm nay.

Chip TPU của Google phát triển đang được Google dùng cho machine learning.

Pichai không nói cụ thể về TPU của họ nhưng Google đã tiết lộ ít nhiều thông tin trên trang blog của hãng cùng ngày Pichai công bố thông tin này. Trang blog ghi rằng TPU có trong các trung tâm dữ liệu từ hơn một năm nay, và chúng có được tốc độ xử lý tối ưu tốt hơn cho machine learning (học máy). Điều này giúp thúc đẩy ngành công nghiệp máy tính tiến bộ nhanh hơn khoảng 7 năm (tương đương với 3 thế hệ của định luật Moore). TPU được chỉnh sửa chuyên cho các ứng dụng machine learning, cho phép chip không thiên nhiều về tính chính xác trong tính toán, nghĩa là chip cần ít transistor hơn cho mỗi tác vụ. Do vậy, chip có thể thực hiện được nhiều tác vụ hơn cùng lúc, là mô hình thích hợp cho machine learning và những mô hình như vậy sẽ cho kết quả nhanh chóng, chính xác.

TPU nhỏ xíu có thể gắn vừa vặn trong khe cắm ổ cứng trong các rack trung tâm dữ liệu và đã được RankBrain và Street View sử dụng.

Nhưng chính xác TPU là gì, chưa ai biết rõ ngoài Google. SGI có một sản phẩm thương mại tên là Tensor Processing Unit, sử dụng trong các máy trạm của họ hồi đầu những năm 2000, và chúng có vẻ giống với chip Digital Signal Processor (xử lý tín hiệu số - DSP). DSP là chip chuyên biệt để thực hiện một tác vụ đơn giản, lặp đi lặp lại nên rất hiệu quả trong một vài ứng dụng. Nhưng theo Google, chip này không liên quan gì đến chip TPU của họ.

Dù vậy, các nhà công nghiệp vẫn cho rằng TPU ra đời không khiến Google loại bỏ CPU và GPU đi được. Theo nhà phân tích Patrick Moorhead của Moore Insights & Strategy, ông tin rằng TPU có thể sẽ là một hình thức chip mới, được ứng dụng trong các thuật toán về machine learning mà thôi, thay cho GPU và CPU ngốn quá nhiều tài nguyên hệ thống.

Google khẳng định là khả năng xử lý của TPU đẩy nhanh định luật Moore lên đến 7 năm. Các nhà phân tích không nghi ngờ khẳng định này. Moorehead cho rằng điều này tương tự như mối quan hệ giữa một chip ASIC (application-specific integrated circuit) và một CPU.

ASIC là chíp được tối ưu cao, chỉ làm được một tác vụ duy nhất, nhưng làm tốt nhất. Chúng không thể thay đổi như một chip FPGA những lại có lợi nhiều về nguồn tài nguyên và có tốc độ xử lý nhanh. Ví dụ như giải mã một đoạn video H.265 bằng một CPU so vơí một chip ASIC chuyên làm tác vụ này. Một CPU đơn giản là giải mã rất tốn nhiều điện năng so với chip ASIC.

Dù vậy, một vấn đề với chip ASIC là giá và bản chất "tạm thời" của chúng. Chỉ có một cách duy nhất để thay đổi thuật toán, nếu cần cải thiện hay sửa lỗi, là phải thiết kế chip mới. Chip ASIC không có khả năng lập trình lại. Đó là lý do tại sao ASIC chỉ được dùng trong những dự án có nguồn vốn hạn hẹp, như dự án của chính phủ.
 

Nguồn: PCWorld Mỹ

Từ khóa: AI, bộ xử lý, công nghệ, Google, Google I/O 2016, học máy, machine learning, Tensor Processing Unit, TPU, trí tuệ nhân tạo

Bài liên quan