Bạn đã biết về "Learning to Learn" - Lĩnh vực rất mới của Trí tuệ nhân tạo?

  1. Trí tuệ nhân tạo

Trích dẫn

Loda.me
:


Trong những năm qua, lĩnh vực Trí tuệ Nhân tạo nói chung và Machine Learning nói riêng đã đạt được rất nhiều thành công nổi bật, đặc biệt là khi có sự xuất hiện của Deep Learning. Tuy vậy, vẫn tồn tại một vấn đề rất lớn mà các nhà nghiên cứu trong lĩnh vực Trí tuệ Nhân tạo phải đối mặt, đó là các thuật toán Machine Learning đòi hỏi một lượng dữ liệu dán nhãn cực lớn, Deep Learning còn đòi hỏi một lượng dữ liệu lớn hơn nhiều lần. Dữ liệu dán nhãn không luôn luôn có sẵn đối với mọi tác vụ, và chi phí để có thể thu thập một lượng dữ liệu dán nhãn đủ để có thể training các thuật toán một cách tốt nhất là rất đắt đỏ.

Vì thế mà đã có nhiều nghiên cứu được thực hiện và một số phương pháp được đề xuất để phần nào đó giải quyết vấn đề nan giải này. Những phương pháp này thường được gọi là “Learning to Learn”:


1.      Transfer Learning

Trước tiên, hãy nói về Transfer Learning, một khái niệm dường như phổ biến, được nhiều người biết đến hơn. Trong hội thảo NIPS 2016, Andrew Ng đã nhận định rằng Transfer Learning, sau Supervise Learning, sẽ là động lực chính để định hướng cho sự phát triển của Machine Learning trong tương lai.


Khái niệm Transfer Learning được nhắc đến lần đầu tiên tại workshop có tên là “Learning to learn”, bàn về những phương pháp Machine Learning cho phép lưu giữ và tái sử dụng những thông tin thuật toán đã học được, trong hội thảo NIPS-95. Kể từ đó, Transfer Learning thu hút ngày càng nhiều sự chú ý. Ý tưởng chung của Transfer Learning là chia sẻ các kiến thức mà hệ thống AI đã nhận được từ quá trình training của tác vụ/domain gốc (source) sang cho một tác vụ /domain mục tiêu (target).


2.      Multitask Learning

Multitask Learning được phân chia như là một nhóm nhỏ trong Transfer Learning. Tuy vậy, không phải nhà khoa học nào cũng đồng ý với sự phân biệt này, một số coi Multitask Learning và Transfer Learning là những khái niệm tương đồng.

Sự khác biệt lớn nhất ở đây là trong Transfer Learning, có sự phân biệt giữa tác vụ/domain gốc và tác vụ/domain mục tiêu. Mà trong đó, tác vụ/domain mục tiêu có vai trò quan trọng hơn. Trong Multitask Learning, các tác vụ/domain có vai trò bình đẳng hơn.


3.      Meta Learning

Meta Learning là một thuật ngữ xuất phát từ lĩnh vực Tâm lý Xã hội với định nghĩa gốc là “the process by which learners become aware of and increasingly in control of habits of perception, inquiry, learning, and growth that they have internalized”.

Nói một cách ngắn gọn, Meta Learning được dùng để chỉ việc con người nhận thức và làm chủ được quá trình tiếp thu kiến thức của mình.


=> Tóm lại, Learning to Learn vẫn còn là một lĩnh vực rất mới trong Trí tuệ Nhân tạo. 03 phương pháp tiếp cận được nêu trên cũng chỉ là những đại diện nổi bật nhất của Learning to Learn.


Thông tin ở bài viết trên đây được tham khảo từ nguồn Tạp chí AI, mình rất mong sẽ được nghe mọi người chia sẻ sâu hơn về các phương pháp tiếp cận ở trên cũng như bàn luận thêm về những phương pháp tiếp cận khác của Learning to Learn.

Từ khóa: 

trí tuệ nhân tạo

Learning to learn được nhắc đến từ những năm 1990 (

http://bengio.abracadoudou.com/publications/pdf/bengio_1991_ijcnn.pdf
). Tuy nhiên mình để ý hình như gần đây nó mới được nhắc đến nhiều hơn do sự thành công của transfer learning trong một số bài toán computer vision, và do sự bùng nổ nói chung trong nghiên cứu AI.

Learning to learn cũng đóng vai trò quan trọng trên con đường tới AGI. Một trong những yêu cầu để có một AGI là các mạng neuron không cần phải train lại khi gặp một bài toán mới, và learning to learn giúp hạn chế việc này. Bài báo PathNet của DeepMind (

https://arxiv.org/abs/1701.08734
) là một ví dụ.

Ngoài ra, một số bài toán khác cũng liên quan đến learning to learn như one-shot learning/few-shot learning, tức là học cách xử lí một bài toán mới chỉ với một vài ví dụ huấn luyện.

Trả lời

Learning to learn được nhắc đến từ những năm 1990 (

http://bengio.abracadoudou.com/publications/pdf/bengio_1991_ijcnn.pdf
). Tuy nhiên mình để ý hình như gần đây nó mới được nhắc đến nhiều hơn do sự thành công của transfer learning trong một số bài toán computer vision, và do sự bùng nổ nói chung trong nghiên cứu AI.

Learning to learn cũng đóng vai trò quan trọng trên con đường tới AGI. Một trong những yêu cầu để có một AGI là các mạng neuron không cần phải train lại khi gặp một bài toán mới, và learning to learn giúp hạn chế việc này. Bài báo PathNet của DeepMind (

https://arxiv.org/abs/1701.08734
) là một ví dụ.

Ngoài ra, một số bài toán khác cũng liên quan đến learning to learn như one-shot learning/few-shot learning, tức là học cách xử lí một bài toán mới chỉ với một vài ví dụ huấn luyện.

  • Bài toán facial recognition mình đang nghiên cứu cũng ứng dụng Transfer Learning để làm việc.
  • Đây là course của thầy Andrew Ng giảng về Transfer và Multitask:
    https://goo.gl/bAVztT