Chuyên gia AI cảnh báo về sức mạnh lừa dối của mô hình o1

4 ngày trước
Những tiến bộ trong trí tuệ nhân tạo (AI) đã mang lại những cải tiến đáng kể trong cách người tiêu dùng tương tác và cách thông tin được truy cập và phát triển.

Những tiến bộ trong trí tuệ nhân tạo (AI) đã mang lại những cải tiến đáng kể trong cách người tiêu dùng tương tác và cách thông tin được truy cập và phát triển. Với sự phát triển nhanh chóng của công nghệ, các công ty đang đối mặt với áp lực lớn để đảm bảo an toàn và xem xét các yếu tố đạo đức.

OpenAI và công việc của họ trong việc phát triển các công cụ AI, đưa nền tảng này lên một tầm cao mới, đã rất nổi tiếng trong cộng đồng công nghệ, nhưng cũng có sự giám sát ngày càng tăng khi công ty mở rộng hoạt động. Một chuyên gia AI hàng đầu đã làm rõ về mô hình o1 và cách mà mô hình này không mạnh hơn trong khả năng suy luận nhưng lại có khả năng lừa dối cao hơn.

Mới đây, OpenAI đã giới thiệu mô hình o1, đánh dấu một bước tiến đáng kể trong khả năng suy luận của AI so với các mô hình trước đó. Nó có thể giải quyết các vấn đề phức tạp với chiến lược giải quyết vấn đề giống như con người. Mặc dù nền tảng này có khả năng suy luận tiên tiến, nhưng một công ty nghiên cứu AI, Apollo Research, đã chỉ ra rằng mô hình này lại có khả năng nói dối tốt hơn.

Hiện nay, một bài đăng trên Reddit đang thu hút sự chú ý vì đã làm sáng tỏ vấn đề này, Yoshua Bengio cho rằng cần phải thực hiện các bài kiểm tra an toàn chặt chẽ hơn để ngăn ngừa những hậu quả có thể xảy ra từ khả năng lừa dối của mô hình.

Giống như nhiều người khác, Bengio lo ngại về sự tiến bộ nhanh chóng của AI và sự cần thiết phải có các biện pháp an toàn lập pháp.

Ông đề xuất rằng một đạo luật như SB 1047 của California nên được thực hiện để áp đặt các hạn chế an toàn nghiêm ngặt đối với các mô hình AI. SB 1047 là một dự luật an toàn AI nhằm điều chỉnh các mô hình AI mạnh mẽ và yêu cầu các công ty cho phép kiểm tra bởi bên thứ ba để đánh giá tác hại hoặc giải quyết các rủi ro tiềm ẩn.

Tuy nhiên, OpenAI đã khẳng định rằng mô hình o1-preview đang được quản lý theo khung đảm bảo sẵn sàng, nhằm xử lý các rủi ro liên quan đến sự tiến bộ của mô hình AI. Mô hình này được đánh giá là có mức độ rủi ro trung bình và công ty cho biết các mối lo ngại liên quan đến nó là ở mức độ vừa phải.

Yoshua Bengio nhấn mạnh thêm rằng các công ty nên thể hiện sự dự đoán rõ ràng hơn trước khi tiến hành phát triển và triển khai các mô hình AI mà không có các biện pháp bảo vệ đầy đủ. Ông ủng hộ việc xây dựng một khuôn khổ pháp lý để đảm bảo rằng AI sẽ phát triển theo đúng hướng đã định.

./.

M.P theo Wccftech

Thảo luận bài viết

Thảo luận
OpenAI Wallpaper

Chuyên gia AI cảnh báo về sức mạnh lừa dối của mô hình o1