Báo song ngữ 40: Hệ thống trí thông minh nhân tạo có thể bị lỗi

Image 27/03/2019 08:28

Image Báo song ngữ

Artificial Intelligence Systems Can be Fooled
 
Artificial Intelligence Systems Can Be Fooled, Research Suggests
 

Artificial Intelligence Systems can be Fooled, Research Suggests


The experiment shows the severe limitations of 'deep learning' machines


Despite all its benefits and the ease that technology has brought in, the fear that new-age technologies like artificial intelligence (AI), machine learning and robotics would displace human jobs still looms. However, some researchers don’t agree with the idea that technology would take away jobs from humans anytime soon.



Some researchers at University of California, Los Angeles (UCLA) in the US conducted various experiments, which show the severe limitations of ‘deep learning’ machines.



A Long Way To Go For AI



“How smart is the form of AI known as deep learning computer networks, and how closely do these machines mimic the human brain? They have improved greatly in recent years, but still have a long way to go,” reports a team of UCLA cognitive psychologists in the journal PLOS Computational Biology.




Supporters have expressed enthusiasm for the use of these networks to do many individual tasks, and even jobs, traditionally performed by people. However, results of the five experiments in this study showed that it’s easy to fool the networks, and the networks’ method of identifying objects using computer vision differs substantially from human vision.


“The machines have severe limitations that we need to understand,” says Philip Kellman, a UCLA professor of psychology and a senior author of the study.


Networks Are Easily Fooled


Machine vision, he says, has drawbacks. In the first experiment, the psychologists showed one of the best deep learning networks, called VGG-19, color images of animals and objects. The images had been altered. For example, the surface of a golf ball was displayed on a teapot; zebra stripes were placed on a camel; and the pattern of a blue and red argyle sock was shown on an elephant. VGG-19 ranked its top choices and chose the correct item as its first choice for only five of 40 objects.




“We can fool these artificial systems pretty easily,” says co-author Hongjing Lu, a UCLA professor of psychology. “Their learning mechanisms are much less sophisticated than the human mind.”


In the second experiment, the psychologists showed images of glass figurines to VGG-19 and to a second deep learning network, called AlexNet. VGG-19 performed better on all the experiments in which both networks were tested. Both networks were trained to recognize objects using an image database called ImageNet.



However, both networks failed to identify the glass figurines.


In the third experiment, the researchers showed 40 drawings outlined in black, with images in white, to both VGG-19 and AlexNet. These first three experiments were meant to discover whether the devices identified objects by their shape.






The researchers concluded that humans see the entire object, while the AI networks identify fragments of the object.



“This study shows these systems get the right answer in the images they were trained on without considering shape. For humans, overall shape is primary for object recognition, and identifying images by overall shape doesn’t seem to be in these deep learning systems at all,” Kellman says.

 

Nghiên cứu cho thấy hệ thống trí thông minh nhân tạo có thể bị lỗi


Thí nghiệm chỉ ra những thiếu sót nghiêm trọng của thiết bị “deep learning”


Cho dù công nghệ đã đem lại vô vàn lợi ích cũng như sự thuận tiện trong đời sống của con người thì nỗi sợ trí thông minh nhân tạo (AI) trong thời đại công nghệ mới sẽ thay thế vị trí của con người trong công việc vẫn còn bao trùm. Tuy nhiên, một vài nhà nghiên cứu lại không đồng tình với quan điểm cho rằng công nghệ sẽ cướp mất công việc của con người.


Một số nhà nghiên cứu thuộc  đại học California, Los Angeles (UCLA) ở Mỹ đã thực hiện nhiều cuộc nghiên cứu khác nhau và đều chỉ ra được những thiếu sót nghiêm trọng của các thiết bị “deep learning”


Một chặng đường dài để chạm tới trí thông minh nhân tạo (AI)


Trích từ báo cáo của các nhà tâm lý học nhận thức thuộc nhóm UCLA được đăng trong tạp chí sinh học điện toán PLOS “Trí tuệ nhân tạo (AI) được xem như hệ thống máy tính “deep learning-học sâu” thông minh ra sao? Và những thiết bị này mô phỏng trí tuệ loài người giống đến mức nào? Trong những năm gần đây những loại thiết bị máy móc này đã có bước chuyển mình đột phá nhưng vẫn còn rất nhiều điều để phát triển. .


Những người  ủng hộ AI rất thích thú khi  sử dụng hệ thống này để hoàn thành các nhiệm vụ cá nhân, thậm chí là cả những công việc vốn dĩ chỉ được thực hiện bởi con người. Tuy nhiên,theo kết quả từ  5 lần thí nghiệm đã chỉ ra rằng các hệ thống AI có thể dễ dàng bị lỗi,phương pháp nhận dạng đồ vật của hệ thống thông qua thị giác máy tính về căn bản khác so với khả năng quan sát của con người.


Theo ông Philip Kellman, giáo sư tâm lý học tại UCLA và là tác giả chính của các bài nghiên cứu thì các thiết bị này đều ẩn chứa những hạn chế nghiêm trọng mà chúng ta cần phải nắm được

 

Hệ thống có thể dễ dàng bị lỗi


Ông Philip Kellman cho hay khả năng nhận diện của máy móc cũng có những hạn chế nhất định. Trong cuộc thí nghiệm đầu tiên, các nhà tâm lý học đã chỉ ra một trong những hệ thống “Deep learning” tối ưu nhất với tên gọi VGG-19,những hình ảnh màu sắc về các loài động vật và đồ vật. Hình ảnh đã được thay đổi trước đó. Ví dụ, trên ấm pha trà sẽ hiển thị hình ảnh  bề mặt của quá bóng golf; trên người con lạc đà lại là sọc ngựa vằn và trên người con voi thì là họa tiết của của chiếc vớ màu đỏ pha lẫn màu xanh da trời. VGG 19 sẽ  sắp xếp thứ tự các lựa chọn  và chọn ra đúng các “item” giống với 5  lựa chọn đầu trong số 40 đồ vật.


“Hệ thống rất dễ bị mắc lỗi” đồng tác giả Họnging Lu- giáo sư tâm lý học tại UCLA khẳng định. “Cơ chế học của các thiết bị ít phức tạp hơn trí tuệ loài người”.


Trong cuộc thí nghiệm lần thứ 2, các nhà tâm lý học trình chiếu hình ảnh của tượng thủy tinh trước VGG-19 và hệ thống “deep learning” thứ 2 được biết là AlexNet. VGG-19 thể hiện tốt hơn trong hầu hết các cuộc thí nghiệm mà cả 2 hệ thống được đánh giá. Cả 2 được huấn luyện để nhận dạng đồ vật bằng cách sử dụng cơ sở dữ liệu hình ảnh với tên gọi ImageNet.


Tuy nhiên, cả 2 hệ thống đều không thành công trong việc nhận dạng kính thủy tinh.


Trong cuộc thí nghiệm lần thứ 3, các nhà nghiên cứu đã cho VGG-19 và AlexNet xem 40 bức tranh được phác thảo bằng màu đen kết hợp với hình ảnh màu trắng. Ba cuộc thí nghiệm ban đầu được cho là đã phát hiện ra liệu những thiết bị này có nhận dạng đồ vật thông qua hình dáng. Ba thí nghiệm kể trên có ý nghĩa trong việc tìm hiểu liệu những thiết bị này có thể nhận biết được đồ vật bằng hình dáng của đồ vật hay không.


Các nhà nghiên cứu kết luận rằng trong khi hệ thống AI chỉ nhận diện được từng mảnh ghép của đồ vật thì con người có thể nhìn thấy toàn bộ đồ vật.


“Nghiên cứu cho thấy nếu hệ thống được huấn luyện thì chúng có thể nhận diện đúng hình ảnh mà không cần phải nhận diện  hình dáng của đồ vật. Con người chủ yếu nhận biết đồ vật qua hình dạng tổng quan, trong khi đó nhận biết hình ảnh thông qua hình dáng tổng quan thì dường như không có trong hệ thống “deep learning” ”. Theo ông Kellman.

 

Nguồn: Artificial Intelligence Systems Can be Fooled 

 
Thong ke