Ngày 22/7 vừa qua, tại một sự kiện của Cục Dự trữ Liên bang Mỹ (FED) tập trung vào việc thảo luận về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty đứng sau ChatGPT, đã bày tỏ sự lo ngại sâu sắc về những rủi ro tiềm ẩn mà công nghệ AI đang mang lại. Một trong những vấn đề đáng chú ý nhất mà ông Altman đề cập là khả năng giả mạo giọng nói và hình ảnh bằng AI đang đạt đến mức độ tinh vi, có thể dễ dàng vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn nhiều tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng, điều mà ông coi là “thực sự nguy hiểm”. Với sự phát triển của AI, gần như toàn bộ các phương thức xác thực hiện nay đều có thể bị đánh bại, ngoại trừ mật khẩu. Điều này đặt ra một thách thức lớn trong việc đảm bảo an ninh và bảo mật cho các giao dịch tài chính cũng như các hoạt động trực tuyến khác.
Không chỉ dừng lại ở đó, ông Altman còn bày tỏ sự lo ngại về viễn cảnh siêu AI – một loại trí tuệ nhân tạo có khả năng thông minh vượt trội so với con người, có thể bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông sợ rằng một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và sử dụng nó để tấn công vào các hạ tầng quan trọng như lưới điện hoặc chế tạo vũ khí sinh học. Đây là những rủi ro toàn cầu mà thế giới cần phải chuẩn bị sẵn sàng để đối mặt.
Một vấn đề khác mà ông Altman đề cập là sự xuất hiện của các công nghệ giả mạo như video và cuộc gọi AI, có thể không thể phân biệt được với người thật. Ông cho rằng thế giới chưa sẵn sàng đối mặt với những công nghệ mới này và điều cần thiết là phải tìm kiếm các giải pháp để kiểm soát và quản lý chúng.
Song song với việc cảnh báo về những rủi ro, ông Altman cũng lên tiếng ủng hộ việc tìm kiếm giải pháp để kiểm soát AI. Ông đặc biệt nhấn mạnh sự quan tâm đến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông hy vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” quan trọng trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Đáng chú ý, Altman khẳng định OpenAI không đang phát triển các công cụ tạo video hay giọng nói giả mạo. Tuy nhiên, ông thừa nhận rằng các công nghệ này đang tiến bộ rất nhanh, không chỉ tại Mỹ mà còn trên toàn thế giới. Ông Altman lo lắng về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin khi AI ngày càng phát triển.
Trước những cảnh báo của ông Altman, chúng ta có thể thấy rằng sự phát triển nhanh chóng của AI đang đặt ra những thách thức lớn cho xã hội. Những vấn đề liên quan đến giả mạo giọng nói, hình ảnh, và video đã xuất hiện và gây ra nhiều hệ lụy. Tại Việt Nam, các chuyên gia cũng đã lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view.
Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, đã chỉ ra rằng tùy thuộc vào nội dung hình ảnh, video được dàn dựng và mục đích của người sản xuất/phát tán, sẽ có các lỗi và quy định xử lý riêng. Điều này đòi hỏi sự quan tâm và cảnh giác từ phía người dùng cũng như các cơ quan chức năng để đảm bảo rằng công nghệ được sử dụng một cách có trách nhiệm và an toàn.
Như vậy, có thể thấy rằng sự phát triển của AI đang mở ra nhiều cơ hội nhưng cũng tiềm ẩn nhiều rủi ro. Điều quan trọng là chúng ta cần phải tỉnh táo và có những biện pháp phù hợp để quản lý và sử dụng AI một cách hiệu quả và an toàn.