Học sâu là tất cả những cơn thịnh nộ ngày nay trong giới doanh nghiệp, và thật khó để hiểu tại sao. Cho dù đó là tối ưu hóa chi tiêu quảng cáo, tìm ra loại thuốc mới để chữa ung thư, hoặc chỉ cung cấp các sản phẩm tốt hơn, thông minh hơn cho khách hàng, học máy – và các mô hình học tập sâu – có khả năng cải thiện ồ ạt một loạt sản phẩm và ứng dụng.

Mặc dù vậy, từ khóa là tiềm năng. Trong khi chúng ta đã nghe thấy vô số từ được rải khắp các hội nghị doanh nghiệp trong vài năm qua về học tập sâu, vẫn còn những rào cản lớn để làm cho các kỹ thuật này được phổ biến rộng rãi. Các mô hình học tập sâu được nối mạng cao, với các biểu đồ dày đặc của các nút không phù hợp với các cách thức truyền thống xử lý thông tin. Thêm vào đó, việc nắm giữ tất cả các thông tin cần thiết cho một mô hình học tập sâu có thể mất hàng petabyte dung lượng và giá đỡ trên giá đỡ của bộ xử lý để có thể sử dụng được.

Có rất nhiều cách tiếp cận đang được tiến hành ngay bây giờ để giải quyết vấn đề tính toán thế hệ tiếp theo này, và Cerebras phải là một trong những cách thú vị nhất.

Như chúng ta đã nói vào tháng 8 với thông báo về công ty Scale Wafer Scale Engine ‘của công ty – chip silicon lớn nhất thế giới theo lý thuyết của công ty – lý thuyết của Cerebras là hướng về phía trước để học sâu là về cơ bản chỉ cần đưa toàn bộ mô hình học máy vào phù hợp với một chip lớn. Và vì vậy, công ty nhắm đến mục tiêu lớn – thực sự lớn.

Hôm nay, công ty đã công bố ra mắt sản phẩm điện toán cho người dùng cuối, Cerebras CS-1, đồng thời công bố khách hàng đầu tiên của Phòng thí nghiệm quốc gia Argonne.

CS-1 là một giải pháp hoàn chỉnh. Sản phẩm được thiết kế để thêm vào trung tâm dữ liệu để xử lý các luồng công việc AI. Nó bao gồm Công cụ quy mô wafer (hoặc WSE, tức là lõi xử lý thực tế) cộng với tất cả các thiết bị làm mát, kết nối mạng, lưu trữ và các thiết bị khác cần thiết để vận hành và tích hợp bộ xử lý vào trung tâm dữ liệu. Nó cao 26,25 inch (15 đơn vị rack) và bao gồm 400.000 lõi xử lý, 18 gigabyte bộ nhớ trên chip, 9 petabyte mỗi giây của băng thông bộ nhớ chết, 12 kết nối ethernet để di chuyển dữ liệu vào và ra khỏi CS-1 hệ thống, và chỉ hút 20 kilowatt điện.

A cross-section look at the CS-1. Photo via Cerebras

Cerebras tuyên bố rằng CS-1 cung cấp hiệu suất của hơn 1.000 GPU hàng đầu được kết hợp – một tuyên bố mà TechCrunch đã xác minh, mặc dù chúng tôi đang chờ đợi các tiêu chuẩn chuẩn trong ngành trong những tháng tới khi những người thử nghiệm có được các đơn vị này.

Ngoài phần cứng, Cerebras cũng tuyên bố phát hành một nền tảng phần mềm toàn diện cho phép các nhà phát triển sử dụng các thư viện ML phổ biến như TensorFlow và PyTorch để tích hợp quy trình làm việc AI của họ với hệ thống CS-1.

Khi thiết kế hệ thống, Giám đốc điều hành và đồng sáng lập Andrew Feldman nói rằng, Chúng tôi đã nói chuyện với hơn 100 khách hàng trong năm qua và một chút, để xác định nhu cầu về một hệ thống AI mới và lớp phần mềm cần có đi trên nó Những gì chúng tôi đã học được trong nhiều năm qua là bạn muốn gặp cộng đồng phần mềm nơi họ đang ở chứ không phải yêu cầu họ chuyển đến bạn.

Tôi đã hỏi Feldman tại sao công ty lại xây dựng quá nhiều phần cứng để cung cấp năng lượng cho hệ thống của họ, thay vì sử dụng các thành phần đã có sẵn. Nếu bạn định chế tạo một động cơ Ferrari và đặt nó vào một chiếc Toyota, bạn không thể tạo ra một chiếc xe đua, hay Feldman tương tự. Phần mềm đưa chip nhanh vào máy chủ Dell hoặc [khác] không tính toán nhanh. Những gì nó làm là nó di chuyển nút cổ chai. Feldman giải thích rằng CS-1 có nghĩa là lấy chip WSE bên dưới và cung cấp cho nó cơ sở hạ tầng cần thiết để cho phép nó hoạt động hết khả năng.

A diagram of the Cerebras CS-1 cooling system. Photo via Cerebras.

Cơ sở hạ tầng đó bao gồm một hệ thống làm mát nước hiệu suất cao để giữ cho con chip và nền tảng khổng lồ này hoạt động ở nhiệt độ phù hợp. Tôi đã hỏi Feldman tại sao Cerebras chọn nước, vì việc làm mát nước theo truyền thống rất phức tạp trong trung tâm dữ liệu. Ông nói, chúng tôi đã xem xét các công nghệ khác – freon. Chúng tôi đã xem xét các giải pháp nhập vai, chúng tôi đã xem xét các giải pháp thay đổi pha. Và những gì chúng tôi tìm thấy là nước rất tuyệt vời khi di chuyển nhiệt.

A side view of the CS-1 with its water and air cooling systems visible. Photo via Cerebras.

Tại sao sau đó tạo ra một con chip khổng lồ như vậy, như chúng ta đã thảo luận hồi tháng 8, có yêu cầu kỹ thuật rất lớn để vận hành so với các chip nhỏ hơn có năng suất tốt hơn từ các tấm wafer. Feldman nói rằng, nó giúp giảm thời gian liên lạc bằng cách sử dụng địa phương.

Trong khoa học máy tính, địa phương đang đặt dữ liệu và tính toán vào đúng vị trí bên trong, hãy để Lừa nói một đám mây, giúp giảm thiểu độ trễ và xử lý ma sát. Bằng cách có một con chip về mặt lý thuyết có thể lưu trữ toàn bộ mô hình ML trên đó, không cần dữ liệu để truyền qua nhiều cụm lưu trữ hoặc cáp ethernet – mọi thứ mà chip cần để hoạt động đều có sẵn gần như ngay lập tức.

Theo một tuyên bố từ Phòng thí nghiệm quốc gia Cerebras và Argonne, Cerebras đang giúp nghiên cứu về bệnh ung thư, chấn thương sọ não và nhiều lĩnh vực quan trọng khác đối với xã hội ngày nay tại phòng thí nghiệm. Feldman nói rằng, Thật hài lòng khi ngay lập tức khách hàng sử dụng thứ này cho những thứ quan trọng và không cho các cô gái 17 tuổi tìm thấy nhau trên Instagram hoặc một số thứ như thế.

(Tất nhiên, người ta hy vọng rằng nghiên cứu ung thư trả tiền cũng như tiếp thị có ảnh hưởng khi nói đến giá trị của các mô hình học tập sâu).

Bản thân Cerebras đã phát triển nhanh chóng, đạt tới 181 kỹ sư ngày nay theo công ty. Feldman nói rằng công ty đang giảm bớt doanh số bán hàng của khách hàng và phát triển sản phẩm bổ sung.

Đây chắc chắn là một thời gian bận rộn cho các công ty khởi nghiệp trong không gian làm việc trí tuệ nhân tạo thế hệ tiếp theo. Graphcore vừa thông báo vào cuối tuần này rằng nó đã được cài đặt trong đám mây Azure của Microsoft, trong khi tôi chi trả cho tài trợ của NUVIA, một công ty khởi nghiệp do cựu nhà thiết kế chip hàng đầu của Apple hy vọng sẽ áp dụng nền tảng di động của họ để giải quyết các yêu cầu năng lượng cực cao của các chip AI này lực lượng trên các trung tâm dữ liệu.

Mong đợi nhiều thông báo và hoạt động hơn trong không gian này khi học sâu tiếp tục tìm thấy những tín đồ mới trong doanh nghiệp.