Tin tức mới

Adversarial example và những điều về mẫu đối nghịch

0 0
0 0
Read Time:4 Minute, 59 Second

Adversarial example là các mẫu đối nghịch hay được gọi cách khác là các hình ảnh nhiễu. Nó tồn tại ở hầu như tất cả các tác vụ học máy. Một số tác vị điển hình như: Nhận dạng giọng nói, phân loại văn bản, phát hiện gian lận, dịch máy (machine translation), học tăng cường (reinforcement learning), …..

Mạng nơ-ron hay mạng thần kinh nhân tạo rất dễ bị các mẫu đối nghịch đánh lừa. Kể cả bây giờ nó đạt được hiệu suất siêu phàm trong nhiều lĩnh vực và đang được tung hô. Điều này khiến cho tính toàn vẹn của các hệ thống học máy bị phá vỡ. Làm cho sự ảo tưởng về hiệu suất siêu phàm của các hệ thống dựa trên trí tuệ nhân tạo bị giảm sút đi rất nhiều. Cho dù chúng đang được tung hô ngoài thực tế. Đó cũng là một trong những kẽ hở mà nhiều hacker có thể tận dụng để đột nhập, gây nhiễu loạn thông tin.

Khái niệm về Adversarial example

Adversarial example là các mẫu được tạo ra với những thao tác tinh vi mà mắt người không thể nào nhìn thấy được. Nó đã biến nó thành một hình ảnh hoàn toàn khác; dưới con mắt kỹ thuật số của thuật toán machine learning. Adversarial examples khai thác cách thức hoạt động; vận hành của các thuật toán trí tuệ nhân tạo để phá vỡ nó. Trong vài năm qua, adversarial examples đã trở thành một lĩnh vực nghiên cứu tích cực.

Khi vai trò của AI tiếp tục phát triển mạnh trong nhiều ứng dụng công nghệ. Ngày càng nhiều mối lo ngại rằng; các lỗ hổng trong các hệ thống học máy có thể bị khai thác cho mục đích xấu. Mỗi ví dụ đào tạo phải được thăm dò để tìm ra các điểm yếu của adversarial. Sau đó mô hình phải được đào tạo lại trên tất cả các ví dụ đó. Một trong những cách chính để bảo vệ các mô hình học máy chống lại adversarial examples đó là “adversarial training”. Trong adversarial training, các kỹ sư của thuật toán học máy sẽ đào tạo; hướng dẫn lại các mô hình của họ về adversarial examples.

Adversarial example là các mẫu được tạo ra với những thao tác tinh vi
Adversarial example là các mẫu được tạo ra với những thao tác tinh vi

Adversarial examples khai thác cách thức hoạt động; vận hành của các thuật toán

Adversarial example điều chỉnh các giá trị pixel trong hình ảnh có thể đánh lừa AI

Khi bạn đưa ra yêu cầu một người mô tả; giải thích cách mà họ phát hiện ra một con gấu trúc trong một bức ảnh. Họ có thể tìm kiếm các đặc điểm ngoại hình. Ví dụ như tai tròn, các mảng đen quanh mắt, mõm, da có lông… Hoặc cũng có thể đưa ra các đặc điểm khác; chẳng hạn như môi trường sống hay hình dáng cơ thể… Nhưng đối với một mạng nơ-ron nhân tạo. Thì miễn là việc chạy các giá trị pixel thông qua phương trình cung cấp câu trả lời đúng. Nó sẽ tin rằng những gì nó đang thấy thực sự là một con gấu trúc.

Nói cách khác, bằng cách điều chỉnh các giá trị pixel trong hình ảnh theo một cách phù hợp; bạn có thể đánh lừa AI. Trong trường hợp adversarial example mà bạn đã thấy ở đầu bài viết. Các nhà nghiên cứu AI đã thêm một lớp nhiễu vào hình ảnh. Sự thay đổi này khó có thể nhìn thấy được bằng mắt thường. Nhưng khi số pixel mới đi qua mạng nơ-ron, chúng sẽ cho ra kết quả là Chris Evans. Tác dụng của việc này là làm cho chúng trở nên mạnh mẽ hơn trong việc chống lại sự nhiễu loạn dữ liệu. Mặc dù adversarial training là một quá trình dài.

Trong vài năm qua, đã có rất nhiều nghiên cứu về hoạt động và tác dụng của học máy đối nghịch. Năm 2016, các nhà nghiên cứu tại Đại học Carnegie Mellon đã cho thấy; nếu bạn có đeo một chiếc kính đặc biệt. Chiếc kính này có thể đánh lừa các mạng lưới thần kinh nhận dạng khuôn mặt. Nó sẽ khiến họ trông giống với những người nổi tiếng.

Adversarial training là một quá trình dài và tốn kém

Adversarial examples cũng là một lời nhắc nhở con người
Adversarial examples cũng là một lời nhắc nhở con người

Trong một trường hợp khác, các nhà nghiên cứu tại Samsung và các trường Đại học Washington; Michigan và UC Berkley đã chỉ ra rằng bằng cách thực hiện các chỉnh sửa nhỏ trên biển báo “STOP”. Họ có thể biến chúng trở nên vô hình trước các thuật toán. Điều này có ảnh hưởng rất lớn đến thị giác máy tính của xe tự lái. Hacker có thể sử dụng adversarial attack này để buộc một chiếc xe tự lái vào nguy hiểm. Điều tồi tệ hơn cả là có thể gây ra tai nạn.

Các nhà khoa học vẫn đang phát triển các phương pháp để tối ưu hóa quá trình phát hiện. Mục đích của việc này là vá các điểm yếu của adversarial trong các mô hình học máy. Bên cạnh đó, các nhà nghiên cứu AI cũng đang tìm cách để có thể giải quyết các lỗ hổng adversarial; trong các hệ thống deep learning (tạm gọi là học sâu) ở cấp độ cao hơn. Adversarial examples cũng là một lời nhắc nhở con người. Chúng ta có thể thấy rõ ràng về việc trí tuệ nhân tạo và trí óc con người khác nhau như thế nào. Nếu bạn thích bài viết này, hãy chia sẻ nó với những người quan tâm. Hãy thường xuyên truy cập website để có những thông tin mới nhất về lĩnh vực.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

42 + = 52