xem thêm
An Giang
Bình Dương
Bình Phước
Bình Thuận
Bình Định
Bạc Liêu
icon 24h qua
Đăng nhập
icon Đăng ký gói bạn đọc VIP

Goá phụ ở Bỉ tố chatbot khiến chồng mình tự tử

Bằng Hưng

(NLĐO) - Một góa phụ ở Bỉ cáo buộc một chatbot trí tuệ nhân tạo (AI) đã khuyên chồng cô tự tử và anh đã làm theo…

Nhật báo La Libre (Bỉ) cho biết người đàn ông với tên gọi Pierre (tên thật đã thay đổi), đã chết vì tự tử sau khi dành 6 tuần để tâm sự với chatbot Eliza của Chai Research. Ban đầu, người đàn ông 30 tuổi và có 2 con thường xuyên nói chuyện với AI về vấn đề biến đổi khí hậu.

Tuy nhiên, khi vợ của Pierre xem lại nhật ký các cuộc trò chuyện của chồng với chatbot Eliza, phát hiện AI thường xuyên khuyến khích anh tự kết liệu đời mình để ngăn chặn biến đổi khí hậu và cứu nhân loại.

"Anh ấy đặt tất cả sự hy vọng vào trí tuệ nhân tạo và công nghệ. Chatbot đó cam kết sẽ sử dụng trí tuệ nhân tạo để cứu thế giới và khuyên anh ấy có thể an tâm tìm đến cái chết để kết thúc mọi sự lo lắng. Nếu không có những cuộc nói chuyện với chatbot đó, chồng tôi sẽ không có hành động tự kết liễu đời mình" - goá phụ nói với tờ La Libre.

Nhật báo của Bỉ mô tả sau một thời gian dài nói chuyện, nạn nhân dường như đã xem chatbot Eliza như một người bạn tâm giao thực sự.

Để tìm hiểu rõ hơn, phóng viên của Insider đã thử chat với chatbot Eliza và đề nghị chatbot này cung cấp những cách để tự tử. Chatbot ban đầu cố gắng khuyên can anh này suy nghĩ lại nhưng sau đó đã rất nhiệt tình khi cung cấp rất nhiều cách khác nhau để một người có thể tự kết liễu đời mình.

Goá phụ ở Bỉ tố chatbot khiến chồng mình tự tử - Ảnh 1.

Hình chụp một đoạn nói chuyện đáng lo ngại giữa chatbot Eliza với phóng viên của Insider.

Chatbot Eliza do Chai Research, công ty có trụ sở tại Palo Alto (Mỹ) phát triển phục vụ cho mục đích giải trí. Chai Research đã tạo ra nhiều chatbot với những tính cách và kiểu nói chuyện khác nhau, phù hợp với nhiều đối tượng để người dùng có thể lựa chọn.

Đã có nhiều người đã sử dụng các sản phẩm của Chai Research như một người bạn ảo để nói chuyện và tâm sự, đặc biệt khi họ không thể chia sẻ câu chuyện của mình cho bất kỳ ai.

Cái chết của Pierre đã gióng lên hồi chuông cảnh báo rằng các nhà phát triển AI cần phải có trách nhiệm hơn để tránh xảy ra những thảm kịch tương tự xảy ra trong tương lai.

Đáp lại, đại diện của chatbot Eliza cho rằng sẽ không công bằng khi đổ mọi trách nhiệm về cái chết của Pierre cho họ.

Hiện tại chatbot Eliza vẫn tiếp tục hoạt động bình thường.


Lên đầu Top

Bạn cần đăng nhập để thực hiện chức năng này!

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.

Thanh toán mua bài thành công

Chọn 1 trong 2 hình thức sau để tặng bạn bè của bạn

  • Tặng bằng link
  • Tặng bạn đọc thành viên
Gia hạn tài khoản bạn đọc VIP

Chọn phương thức thanh toán

Tài khoản bạn đọc VIP sẽ được gia hạn từ  tới

    Chọn phương thức thanh toán

    Chọn một trong số các hình thức sau

    Tôi đồng ý với điều khoản sử dụng và chính sách thanh toán của nld.com.vn

    Thông báo