• Home
  • Site Map
  • Contact
  • Login
    • Register
  • Subscribe
Side Logo

Travel News

Trang tin du lịch

  • Home
  • Tin tức - Sự kiện
    • Thống kê du lịch
    • Chuyện lạ
  • Dịch vụ du lịch
    • Khám phá
    • Ẩm thực
    • Người Du lịch
    • Dự án đầu tư Du lịch
  • Visa, hộ chiếu
  • Thông tin cần biết
    • Đến Việt Nam
    • Tại Việt Nam
    • Giao thông
    • Thông tin khác
  • Văn Hóa
    • Giá trị lịch sử
    • Ngôn ngữ văn học
    • Lễ hội, trò chơi dân gian
    • Nghệ thuật biểu diễn
    • Trang phục
    • Kiến trúc, mỹ thuật
    • Món ăn, hoa, trái
    • Chợ Việt Nam
    • Phong tục tập quán
    • Tín ngưỡng - Tâm linh
    • Tết Việt Nam
  • Kinh nghiệm du lịch
  • Nhìn ra thế giới
  • Doanh nghiệp du lịch
  • UKEnglish

Công nghệ du lịch

Chip Nvidia nền tảng sức mạnh của sự bùng nổ công nghệ AI

24/2/2023 23:31 467
Đứng sau sự bùng phát mạnh mẽ của ChatGPT và các ứng dụng AI, đang gây bão trên internet là công ty Nvidia, sản xuất ra công cụ tính toán quan trọng nhất, cung cấp sức mạnh cho Trí tuệ Nhân tạo: Chip Nvidia

AI đã tạo ra những ứng dụng có thể tương tác với người dùng, trả lời các câu hỏi, viết các đoạn văn bản, soạn nhạc hoặc vẽ tranh tương tự con người, hình thành một cơn sốt vàng trong ngành công nghệ.

Các công ty khổng lồ như Microsoft và Google đang chạy đua tích hợp những ứng dụng AI tiên tiến vào công cụ tìm kiếm, khi những công ty AI trị giá hàng tỷ USD như OpenAI và Stable Diffusion nỗ lực phát hành những phần mềm ấn tượng ra công chúng.

Cung cấp sức mạnh tính toán cho những ứng dụng này là một chip trị giá khoảng 10.000 USD, trở thành một trong những công cụ quan trọng nhất trong ngành Trí tuệ Nhân tạo: Nvidia A100.

Nathan Benaich, một nhà đầu tư, thưởng xuất bản các bản tin và thông báo về ngành AI bao gồm một phần danh sách những siêu máy tính sử dụng A100 cho biết, A100 trở thành “con ngựa ô” cho các chuyên gia AI hiện nay. Theo New Street Research, Nvidia chiếm 95% thị trường bộ xử lý đồ họa sử dụng cho Máy học.

A100 là công cụ lý tưởng, áp dụng cho loại mô hình máy học hỗ trợ những công cụ thông minh như ChatGPT, Bing AI hoặc Stable Diffusion. Chip có thể đồng thời thực hiện hàng loạt phép tính đơn giản, có ý nghĩa vô cùng quan trọng trong đào tạo và sử dụng các mô hình mạng thần kinh.

Công nghệ phát triển chip A100 ban đầu được sử dụng để hiển thị đồ họa 3D phức tạp trong các trò chơi. Chip thường được gọi là bộ xử lý đồ họa hoặc GPU, nhưng hiện nay A100 của Nvidia được định cấu hình và hướng đến các tác vụ Máy học và chạy trong các trung tâm dữ liệu lớn chứ không phải bên trong những PC chơi games.

Các công ty công nghệ lớn hoặc công ty khởi nghiệp, phát triển những phần mềm như chatbot và trình tạo hình ảnh yêu cầu hàng trăm hoặc hàng nghìn chip Nvidia, doanh nghiệp có thể tự mua chíp hoặc truy cập an toàn từ máy tính vào nhà cung cấp đám mây.

Cần có hàng trăm GPU để đào tạo các mô hình Trí tuệ Nhân tạo như những mô hình ngôn ngữ lớn. Những con chip phải đủ sức mạnh xử lý hàng terabyte dữ liệu nhanh chóng để có thể nhận dạng các mẫu. Sau đó các GPU như A100 được sử dụng để “suy luận” các câu trả lời hoặc sử dụng mô hình tạo ra văn bản, đưa ra những dự báo hoặc xác định đối tượng trong ảnh.

Những công việc này khiến các công ty AI cần sở hữu rất nhiều A100. Một số doanh nhân trong không gian thậm chí còn coi số lượng A100 có quyền truy cập là dấu hiệu của sự phát triển mang tính cách mạng.

Tháng 1, Giám đốc điều hành Stability AI, Emad Mostaque đã viết trên Twitter:

“Một năm trước, chúng tôi có 32 chiếc A100. Chúng tôi có ước mơ lớn là xếp chồng các chip GPU lên nhau để đào tạo các mô hình Trí tuệ Nhân tạo.” Stability AI là công ty phát triển Stable Diffusion, một công cụ AI tạo hình ảnh từ tin nhắn văn bản, thu hút được sự chú ý đặc biệt vào mùa thu năm 2022 và được cho là có mức định giá hơn 1 tỷ USD .

Hiện nay, Stability AI có quyền truy cập vào hơn 5.400 GPU A100, theo một ước tính từ báo cáo của State of AI, cung cấp biểu đồ theo dõi những công ty và trường đại học nào có bộ sưu tập GPU A100 lớn nhất, không bao gồm các nhà cung cấp dịch vụ đám mây do không công bố số lượng GPU A100 công khai.

Nvidia đang phát triển chip định hướng AI

Nvidia sẽ có nhiều lợi nhuận từ sự lan tỏa mạnh mẽ của các ứng dụng AI. Trong báo cáo thu nhập tài chính quý IV, được công bố ngày 22/2, tổng doanh thu giảm 21%, nhưng các nhà đầu tư đã đẩy cổ phiếu lên khoảng 14% vào ngày 23/2, chủ yếu là do hoạt động kinh doanh chip AI của công ty, được báo cáo là GPU cho trung tâm dữ liệu tăng 11%, lên hơn 3,6 tỷ USD doanh thu trong quý, cho thấy sự tăng trưởng liên tục của chip Nvidia.

Cổ phiếu của Nvidia cũng tăng 65% trong năm 2023, vượt xa S&P 500 và các cổ phiếu bán dẫn khác.

Giám đốc điều hành Nvidia Jensen Huang không thể ngừng nói về AI trong các cuộc đàm thoại điện thoại với các nhà phân tích ngày 22/2, lưu ý rằng sự bùng nổ mạnh mẽ của Trí tuệ Nhân tạo là trọng tâm trong chiến lược của công ty.

Ông Huang cho biết: “Hoạt động mạnh mẽ xung quanh cơ sở hạ tầng AI mà chúng tôi đã xây dựng và liên quan đến đầu ra logic bằng phương pháp sử dụng Hopper và Ampere, tác động đến các mô hình ngôn ngữ lớn đã tăng vọt trong 60 ngày qua”.

 “Không có bất cứ nghi ngờ nào, bất kể quan điểm nào của chúng ta về năm 2023 khi bước vào năm 2023 đã thay đổi khá nhiều do kết quả ứng dụng AI của 60, 90 ngày cuối và đầu năm.”

Ampere là tên mã của Nvidia cho thế hệ chip A100. Hopper là tên mã của chip thế hệ mới H100, mới bắt đầu xuất xưởng.

Cung cấp sức mạnh tính toán ngày càng cao cho máy tính

Bộ Vi xử lý Nvidia A100

So với những loại phần mềm khác như phục vụ một trang web, đôi khi sử dụng sức mạnh xử lý theo từng đợt trong vài phần triệu giây, các tác vụ Máy học có thể chiếm toàn bộ sức mạnh xử lý của máy tính trong nhiều giờ hoặc nhiều ngày. Thực tế này có nghĩa là các công ty có sản phẩm AI thành công thường cần mua thêm GPU để xử lý những giai đoạn cao điểm hoặc hoàn thiện, nâng cao mô hình AI.

Những GPU này không hề rẻ. Ngoài một A100 duy nhất trên thẻ có thể được cắm vào một máy chủ, nhiều trung tâm dữ liệu sử dụng một hệ thống đến 8 GPU A100 hoạt động cùng nhau.

Hệ thống này, được gọi là DGX A100 của Nvidia, có giá đề xuất gần 200,000 USD đi kèm với các chip cần thiết. Ngày 22/4, Nvidia cho biết sẽ bán trực tiếp quyền truy cập đám mây của các hệ thống DGX, có thể sẽ giảm chi phí đầu vào cho những lập trình viên độc lập và nhà nghiên cứu.

Thật dễ dàng để thấy chi phí cho A100 có thể tăng lên như thế nào.

Một ước tính từ New Street Research cho thấy, mô hình ChatGPT trên cơ sở OpenAI trong tìm kiếm của Bing có thể yêu cầu 8 GPU để đưa ra câu trả lời cho một câu hỏi trong vòng chưa đầy một giây. Với tốc độ này, Microsoft sẽ cần hơn 20 000 máy chủ 8 GPU để triển khai mô hình trong Bing cho người dùng, cho thấy tính năng mới BingAI của Microsoft có thể tiêu tốn 4 tỷ USD cho cơ sở hạ tầng.

Antoine Chkaiban, nhà phân tích công nghệ tại New Street Research cho biết, nếu Microsoft mở rộng quy mô của Bing, yêu cầu là 4 tỷ USD. Nhưng nếu mở rộng quy mô của Google, phục vụ 8 hoặc 9 tỷ truy vấn mỗi ngày, chi phí sẽ lên tới 80 tỷ USD cho DGX. Đây là những chi phí rất lớn, phản ánh thực tế là mỗi người dùng sử dụng một mô hình ngôn ngữ lớn như vậy đều cần một siêu máy tính khổng lồ.

Phiên bản mới nhất của Stable Diffusion, một trình duyệt tạo hình ảnh bằng lời nhắc được đào tạo trên 256 GPU A100 hoặc 32 máy với 8 A100 mỗi máy tính, theo thông tin trực tuyến do Stability AI công bố với tổng cộng là 200 000 giờ điện toán.

Theo giá thị trường, chỉ riêng tiến trình đào tạo mô hình AI đã có giá 600 000 USD, Giám đốc điều hành Stability AI, ông Mostaque viết trên Twitter trong một tweet trao đổi về giá rẻ bất thường so với các đối thủ. Con số này không tính chi phí “suy luận” hoặc triển khai mô hình.

Huang, giám đốc điều hành của Nvidia trong cuộc phỏng vấn với phóng viên Katie Tarasov của CNBC cho biết, các sản phẩm của công ty thực sự không đắt so với số lượng tính toán mà những loại mô hình này thực hiện và đó là một bước phát triển lớn. Ông nói: “Chúng tôi đã lấy một trung tâm dữ liệu trị giá 1 tỷ USD chạy CPU và thu nhỏ lại thành một trung tâm dữ liệu trị giá 100 triệu USD. 100 triệu đô la, khi đưa vào đám mây và được 100 công ty chia sẻ, giá cả gần như không là gì cả đối với doanh nghiệp.”

Theo ông Huang, GPU của Nvidia cho phép các công ty khởi nghiệp đào tạo các mô hình AI với chi phí thấp hơn nhiều so với việc các doanh nghiệp sử dụng bằng bộ xử lý máy tính truyền thống. Hiện nay các doanh nghiệp có thể xây dựng sản phẩm tương tự như mô hình ngôn ngữ lớn như GPT với giá khoảng 10, 20 triệu USD và đó là giá thành hợp lý.”

Cạnh tranh gay gắt trong lĩnh vực chip AI

Nvidia không phải là công ty duy nhất sản xuất GPU để sử dụng Trí tuệ Nhân tạo. AMD và Intel cũng cung cấp bộ xử lý đồ họa cạnh tranh và các công ty điện toán đám mây lớn như Google và Amazon đang phát triển và triển khai chip của doanh nghiệp, được thiết kế đặc biệt cho khối lượng công việc AI.

Nhưng đến thời điểm này, phần cứng AI vẫn được tích hợp chặt chẽ với Nvidia, theo bản báo cáo về Chỉ số điện toán trạng thái AI . Tính đến tháng 12, hơn 21 000 báo cáo mã nguồn mở về AI cho biết nhà phát triển sử dụng chip Nvidia.

Hầu hết các nhà nghiên cứu được đưa vào Chỉ số điện toán trạng thái AI đã sử dụng V100, chip của Nvidia, ra mắt vào năm 2017. Nhưng A100 đã phát triển nhanh chóng vào năm 2022 và trở thành chip Nvidia được sử dụng nhiều thứ 3, chỉ sau chip đồ họa dành cho người tiêu dùng có giá 1500 USD trở xuống cho chơi game.

A100 cũng có điểm khác biệt, là 1 trong số ít chip áp dụng các biện pháp kiểm soát xuất khẩu vì lý do quốc phòng. Mùa thu năm 2022, Nvidia cho biết trong một hồ sơ của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC), chính phủ Mỹ áp đặt yêu cầu xin giấy phép do lệnh cấm xuất khẩu A100 và H100 sang Trung Quốc, Hồng Kông và Nga.

“Chính phủ Mỹ chỉ rõ,  yêu cầu cấp phép mới sẽ giải quyết rủi ro về khả năng những sản phẩm được bảo vệ có thể bị sử dụng hoặc chuyển hướng sang “sử dụng cuối cùng cho quân sự” hoặc “người dùng cuối - quân đội” ở Trung Quốc và Nga,” Nvidia giải thích trong hồ sơ chứng khoán. Nvidia trước đây cũng đã điều chỉnh một số loại chip cho thị trường Trung Quốc để tuân thủ những hạn chế xuất khẩu của Mỹ.

Cuộc cạnh tranh khốc liệt nhất cho A100 có thể là chip kế nhiệm. A100 được giới thiệu lần đầu tiên vào năm 2020, một thời gian rất dài trong chu kỳ hoạt động của chip. H100, được giới thiệu vào năm 2022, đang bắt đầu được sản xuất với số lượng lớn. Nvidia đã ghi nhận doanh thu từ chip H100 trong quý IV kết thúc vào tháng 1 nhiều hơn so với A100, mặc dù theo đơn giá H100 đắt hơn.

Nvidia cho biết H100 là GPU đầu tiên trong số các GPU trung tâm dữ liệu của hãng được tối ưu hóa cho chuyển đổi ngôn ngữ, một kỹ thuật ngày càng trở lên quan trọng mà nhiều ứng dụng AI hàng đầu và mới nhất sử dụng. Nvidia cho biết đang hướng tới mục tiêu đào tạo AI nhanh hơn 1 triệu phần trăm. Mục tiêu này nhằm giảm số lượng GPU cần thiết cho trung tâm dữ liệu hoặc những mô hình AI tương lai sẽ có sức mạnh lớn hơn nhiều./.

Trịnh Thái Bằng

Nguồn: VietTimes

Trở về đầu trang
   ChatGPT ứng dụng AI công ty Nvidia sức mạnh tính toán Trí tuệ Nhân tạo Chip Nvidia
0   Tổng số:

Các tin khác

  • Số hóa và công nghệ giúp du lịch bền vững nhanh “cán đích”
  • Chiêm ngưỡng màn pháo hoa mãn nhãn của đội Việt Nam - Niềm tự hào Z121
  • Nhựa thế hệ mới tan được trong nước biển
  • AI thành trợ lực cho du lịch Việt
  • Tăng cường ứng dụng công nghệ hỗ trợ công tác quản lý và xúc tiến du lịch
  • Khách hàng bị “sập bẫy” lừa đảo công nghệ cao nhiều nhất khi lên kế hoạch du lịch qua liên kết mạng
  • Phú Thọ: Huyện Đoan Hùng khai thác di tích lịch sử trong phát triển du lịch và giáo dục địa phương
  • Lạng Sơn: Số hoá di sản
  • Thái Nguyên - Hành trình về nguồn
  • Thành phố Hồ Chí Minh đẩy mạnh ứng dụng công nghệ số trong ngành du lịch
  • 12345...>>

Tin đọc nhiều

  • Long An phát triển du lịch qua di tích lịch sử -...

    Hiện toàn tỉnh Long An có 127 di tích lịch sử - văn hóa (DTLSVH), trong đó, 22 DTLSVH cấp...

    165
  • Quảng Nam: Tây Giang hướng đến phát triển du lịch...

    Với thế mạnh điều kiện thổ nhưỡng, khí hậu mát mẻ, độ che phủ rừng tự nhiên, giá trị bản...

    121
  • Hải Dương: Phường rối nước Thanh Hải được công...

    Nghệ thuật múa rối nước Thanh Hải (Thanh Hà, Hải Dương) có lịch sử hơn 300 năm.

    119
  • Chùa Dàn - Trí Quả tự, thờ phụng Đại Thánh Pháp...

    Chùa Dàn, có tên chữ là Trí Quả tự, còn gọi là Chùa Dàn Phương Quan hay Chùa Dàn Câu là...

    113
  • Cung đường mới - động lực lớn cho phát triển du...

    Trước đây, hành trình từ thành phố Bắc Kạn đến hồ Ba Bể thường mất hơn 2 tiếng đồng hồ,...

    108

- Trang thông tin du lịch
- Email: didulich.net@gmail.com
 

© 2025 Trang thông tin du lịch