• Home
  • Site Map
  • Contact
  • Login
  • Subscribe
Side Logo

Travel News

Trang tin du lịch

  • Home
  • Tin tức - Sự kiện
    • Thống kê du lịch
    • Chuyện lạ
  • Dịch vụ du lịch
    • Khám phá
    • Ẩm thực
    • Người Du lịch
    • Dự án đầu tư Du lịch
  • Visa, hộ chiếu
  • Thông tin cần biết
    • Đến Việt Nam
    • Tại Việt Nam
    • Giao thông
    • Thông tin khác
  • Văn Hóa
    • Giá trị lịch sử
    • Ngôn ngữ văn học
    • Lễ hội, trò chơi dân gian
    • Nghệ thuật biểu diễn
    • Trang phục
    • Kiến trúc, mỹ thuật
    • Món ăn, hoa, trái
    • Chợ Việt Nam
    • Phong tục tập quán
    • Tín ngưỡng - Tâm linh
    • Tết Việt Nam
  • Kinh nghiệm du lịch
  • Nhìn ra thế giới
  • Doanh nghiệp du lịch
  • UKEnglish

Công nghệ du lịch

Bộ lọc âm thanh AI có thể biến giọng nói bạn thành giọng nói của bất kỳ ai

18/9/2022 00:47 511
Một nhóm công nghệ đã phát triển các phần mềm hỗ trợ AI bắt chước giọng nói của bất cứ ai với đủ dữ liệu âm thanh phân tích. Kỹ thuật có nguy cơ trở thành công cụ của những kẻ tội phạm.

Công nghệ AI deepfake lôi cuốn được sự quan tâm ngày càng tăng trong những năm gần đây, chủ yếu tập trung vào việc đánh lừa thị giác của mọi người.

Hiện nay, công nghệ AI trong thiết kế video có thể ghép khuôn mặt của một người lên cơ thể của một người khác, nghệ thuật siêu thực này được phát triển dựa trên đề xuất của người dùng và tạo ra những rắc rối về vấn đề đạo đức xung quanh những kỹ thuật này.

Nhưng một phương pháp đặc biệt khác bắt chước kỹ thuật số đầy thuyết phục người thụ hưởng, chỉ gần đây mới có được sự kiểm tra và nghiên cứu xem xét một cách thích hợp.

Bộ lọc giọng nói, dù không phải là mới, nhưng gần đây bắt đầu lôi kéo sự chú ý của các chuyên gia do có sự hỗ trợ của AI. Thật không may, công nghệ này hình thành hàng loạt các tác động xã hội nghiêm trọng và tương tự như ngành công nghiệp video deepfake, có rất ít cơ quan quản lý có thể kiểm soát, phát hiện và ngăn chặn.

Các công cụ AI mới nổi như Koe Recast và Voice.ai cho thấy khả năng biến đổi đầu vào âm thanh thành âm thanh đầu ra giống như hầu như giống bất kỳ ai nếu được cung cấp đủ dữ liệu âm thanh nguồn để phân tích.

Trong một số trường hợp, các chương trình này chỉ cần một đoạn clip dài từ 15 đến 30 giây là có thể tạo ra những màn bắt chước thuyết phục. Mặc dù Koe Recast mới chỉ đang trong giai đoạn thử nghiệm alpha riêng tư, nhưng đã có sẵn các ví dụ mô tả trong một clip ngắn của Mark Zuckerberg, phát biểu giống như một người kể chuyện nặng về âm trầm, giọng của một phụ nữ và thậm chí là một nhân vật anime có âm vực cao .

Asara Near,  người sáng tạo ra Koe Recast ở Texas nói với Ars Technica trong một cuộc phỏng vấn tuần trước: “Mục tiêu của tôi là giúp mọi người thể hiện bản thân theo bất kỳ cách nào khiến cảm giác hạnh phúc hơn”. Near nói thêm đang có dự định phát hành một ứng dụng dành cho máy tính, có thể chuyển đổi giọng nói của người dùng trong thời gian thực trên các nền tảng như Discord và Zoom.

Khi được hỏi về khả năng những tội phạm công nghệ có thể sử dụng Koe Recast để tấn công cá nhân và cung cấp thông tin sai lệch, Near lập luận: "Như với bất kỳ công nghệ nào, sẽ có cả hai mặt tích cực và tiêu cực, nhưng tôi nghĩ phần lớn mọi người sẽ được hưởng lợi nhiều từ kỹ thuật này. ”

Nhưng các nhà phê bình vẫn hoài nghi việc tin tưởng vào những công cụ có khả năng gây hỗn loạn như vậy.

Gần đây, một số đại diện trung tâm cuộc gọi ngoài bắt đầu sử dụng phần mềm AI để xóa giọng gốc quốc gia bản địa, để đối tác nghe có vẻ "Mỹ" hơn trong nỗ lực giảm thiểu thành kiến ​​của các đối tác phương Tây. Nhóm sáng tạo này đưa ra nhiều luận điểm để biện minh cho công nghệ, nhưng các nhà phê bình cho rằng, đây đơn giản chỉ là cung cấp một phương tiện tránh đối mặt với các vấn đề lớn hơn như bài ngoại và phân biệt chủng tộc.

Tương tự như vậy, nhân viên tại một số doanh nghiệp lớn và một số người trở thành con mồi của những kẻ lừa đảo, tội phạm sử dụng chuyển đổi âm thanh, bắt chước giọng nói chủ chủ doanh nghiệp hoặc người thân của gia đình yêu cầu chuyển tiền và mật khẩu tài khoản. Ngoài ra, kẻ tội phạm có thể sử dụng thủ đoạn này, kết hợp với video deepfake và các công nghệ khác để thực hiện các cuộc tấn công khủng bố hoặc lừa đảo.

“Trong số các doanh nghiệp lớn hơn, tôi nghĩ rằng ngày càng nhiều người bắt đầu thực sự thấy được nguy cơ này vì rất khó để xác định cuộc gọi có phải là của sếp doanh nghiệp hay không,” Kyle Alspach , phóng viên an ninh mạng Protocol giải thích khi phát biểu trên NPR's Marketplace gần đây .

Dù ông Alspach lưu ý rằng, những kiểu lừa đảo này vẫn còn sơ khai, nhưng sẽ không lâu nữa những chiến thuật này trở nên phổ biến hơn, và nếu tình huống diễn ra thời gian thực, rất khó phân biệt sự thật với hư cấu. Thật không may, đơn giản là không có gì ngăn cản được sự gia tăng nhanh chóng các kỹ thuật bắt chước âm thanh và hình ảnh hỗ trợ AI.

Trịnh Thái Bằng

Nguồn VietTimes

Trở về đầu trang
   Công nghệ AI deepfake video âm thanh bắt chước
0   Tổng số:

Các tin khác

  • Vietravel Airlines khai trương đường bay thẳng Thành phố Hồ Chí Minh-Vinh
  • “Sức bật” số cho du lịch Gia Lai
  • 7 xu hướng công nghệ mới nhất đang được ứng dụng trong ngành du lịch
  • Công nghệ mapping lần đầu xuất hiện tại Đường hoa Nguyễn Huệ, Thành phố Hồ Chí Minh
  • Tăng cường chuyển đổi số, phát triển du lịch thông minh
  • Vietnam Airlines mở rộng phát triển mạng bay nội địa từ Hải Phòng
  • Đà Nẵng công bố chủ đề Lễ hội pháo hoa quốc tế DIFF 2026
  • Công nghệ tạo nét riêng cho du lịch đêm Hà Nội
  • Quảng Ninh: Vân Đồn thu hút đầu tư du lịch
  • Ngành du lịch Việt từng bước nâng cao trải nghiệm số hóa
  • 12345...>>

Tin đọc nhiều

  • “Hà Nội - Chạm miền ký ức”: Trải nghiệm Hà Nội...

    Hà Nội - thành phố nghìn năm văn hiến vẫn luôn khiến người ta say mê bởi những lớp ký ức...

    389
  • Đình Mường Đòn – nét biểu trưng văn hóa đặc sắc...

    Từ thị trấn Kim Tân đi xã Thành Mỹ (Thạch Thành) đến trung tâm di tích Mường Đòn ước...

    319
  • Đánh thức tiềm năng du lịch cộng đồng từ bản sắc...

    Nằm giữa vùng sơn cước, bản Bắc Hoa, xã Tân Sơn, tỉnh Bắc Ninh, đang từng bước chuyển...

    300
  • Thúc đẩy công nghiệp văn hóa trong không gian đô...

    Trong chiến lược phát triển các ngành công nghiệp văn hóa do Chính phủ xác định, di sản...

    298
  • Điện ảnh - "Đại sứ du lịch" thầm lặng của du lịch...

    Ban Quản lý di sản thế giới vịnh Hạ Long - Yên Tử (Quảng Ninh) cho biết đoàn làm phim Ấn...

    286

- Trang thông tin du lịch
- Email: didulich.net@gmail.com
 

© 2026 Trang thông tin du lịch