TRUNG HỌC DUY TÂN - PHAN RANG :: Xem chủ đề - Alexa tự ý ghi âm cuộc trò chuyện trong nhà, và gửi cho người khác!
TRUNG HỌC DUY TÂN - PHAN RANG TRUNG HỌC DUY TÂN - PHAN RANG
Nơi gặp gỡ của các Cựu Giáo Sư và Cựu Học Sinh Phan Rang - Ninh Thuận
 
 Trang BìaTrang Bìa   Photo Albums   Trợ giúpTrợ giúp   Tìm kiếmTìm kiếm   Thành viênThành viên   NhómNhóm   Ghi danhGhi danh 
Kỷ Yếu  Mục Lục  Lý lịchLý lịch   Login để check tin nhắnLogin để check tin nhắn   Đăng NhậpĐăng Nhập 

Alexa tự ý ghi âm cuộc trò chuyện trong nhà, và gửi cho người khác!

 
Gửi bài mới   Trả lời chủ đề này    TRUNG HỌC DUY TÂN - PHAN RANG -> Cà Kê Dê Ngỗng
Xem chủ đề cũ hơn :: Xem chủ đề mới hơn  
Người Post Đầu Thông điệp
Mây tím



Ngày tham gia: 24 Oct 2007
Số bài: 10791

Bài gửiGửi: Mon May 28, 2018 11:02 pm    Tiêu đề: Alexa tự ý ghi âm cuộc trò chuyện trong nhà, và gửi cho người khác!

Alexa tự ý ghi âm cuộc trò chuyện trong nhà,
và gửi cho người khác!



Một gia đình ở Hoa Kỳ đã quyết sẽ không bao giờ dám sử dụng thiết bị Alexa của công ty Amazon nữa, sau khi thiết bị này bỗng dưng ghi âm lại những cuộc trò chuyện trong gia đình và tự động gửi cho một người khác.

Theo KIRO-TV, bà Danielle, một người dân sống tại Portland, Hoa Kỳ đã nhận được một cuộc điện thoại từ nhân viên của chồng bà, báo rằng vợ chồng bà phải ngay lập tức tắt nguồn của thiết bị loa sử dụng phần mềm Alexa.

Bà cho hay, người nhân viên này nói rằng họ nhận được một tập tin âm thanh, trong đó là những gì diễn ra trong gia đình bà ở Portland. Và người nhân viên này thì sống tại Seattle, cách Portland 282 km.

“Tôi cảm thấy bị xâm phạm, giống như toàn bộ cuộc sống riêng tư của mình bị xâm phạm,” bà Danielle nói.

Danielle sau đó đã liên lạc công ty Amazon, một kỹ sư phụ trách đã khẳng định cuộc trò chuyện trong gia đình đã bị ghi âm sau đó gửi đến số điện thoại trong danh sách mà không được sự đồng ý của họ.

Bà kể, người kỹ sư đã giải thích rằng có lẽ Alexa đã “đoán” (guess) thông tin theo những gì họ trò chuyện.

“Anh ta xin lỗi chừng 15 lần trong suốt 30 phút và nói “Chúng tôi rất biết ơn bà báo câu chuyện này cho chúng tôi, chúng tôi chắc chắn phải sửa chữa”.”



Amazon đã lên tiếng khẳng định đây là sự việc “rất hi hữu xảy ra”.

Trong một thông cáo truyền thông, phát ngôn nhân của Amazon đã giải thích vì sao họ tin rằng sự việc này xảy ra.

“Thiết bị Alexa được khởi động vì những tiếng trong cuộc trò chuyện nghe giống như “Alexa”, và những âm thanh trong lúc hai người nói chuyện đã được nghe giống như “send message”. Tại thời điểm đó, Alexa đã hỏi “To whom?”, và cũng chính tại thời điểm đó, tình cờ cuộc nói chuyện có những từ ngữ nghe giống như tên của một người trong danh bạ điện thoại. Alexa lại tiếp tục hỏi “[tên người], right?” và Alexa đã diễn dịch theo những âm thanh lúc đó là “right”.



Liệu kỹ thuật có dần phát triển suy nghĩ như con người?

Cũng giống như Siri của Apple, Alexa là công cụ hỗ trợ dựa trên giọng nói. Chương trình được khởi động bằng cách gọi “Alexa”, sau đó là câu mệnh lệnh, chẳng hạn “play music” (hãy mở một bản nhạc)

Ghi âm và chia sẻ cuộc trò chuyện riêng tư mà không có sự chấp thuận là sự việc thứ hai xảy ra trong năm nay, và gây ra lo ngại đối với thiết bị hỗ trợ của Amazon.

Nhiều người đã báo cáo về chuyện kỳ lạ xảy ra khi Alexa bỗng dưng cất tiếng cười mà không rõ nguyên do. Sự việc xảy ra hồi tháng hai và tháng Ba. Amazon cho biết, Alexa có thể tình cờ nge được câu mệnh lệnh “Alexa, laugh”, và họ đã thay đổi cấu trúc câu mệnh lệnh bằng “Alexa, can you laugh?” để giảm thiểu khả năng sai sót.

Hương Lan

Về Đầu Trang
Trình bày bài viết theo thời gian:   
Gửi bài mới   Trả lời chủ đề này    TRUNG HỌC DUY TÂN - PHAN RANG -> Cà Kê Dê Ngỗng Thời gian được tính theo giờ GMT - 4 giờ
Trang 1 trong tổng số 1 trang

 
Chuyển đến 
Bạn không có quyền gửi bài viết
Bạn không có quyền trả lời bài viết
Bạn không có quyền sửa chữa bài viết của bạn
Bạn không có quyền xóa bài viết của bạn
Bạn không có quyền tham gia bầu chọn

    
Powered by phpBB © 2001, 2005 phpBB Group
Diễn Đàn Trung Học Duy Tân