Andrew Ng đã chia sẻ trên bài viết của mình: các ngành công nghiệp như sản xuất, nông nghiệp và chăm sóc sức khỏe đang cần AI làm việc được với dữ liệu nhỏ. Điều này là một thách thức lớn. Bài báo trên https://www.industryweek.com/…/making-ai-work-with… cung cấp một số kỹ thuật để khắc phục vấn đề về thiếu hụt dữ liệu ngay cả khi chỉ có 1 vài dữ liệu lỗi hoặc thậm chí ít hơn.
Bài viết dưới đây là bản dịch tóm lược được thực hiện bởi Amatech (Funix) ngày 13/03/2020
Tại thời điểm 2020, khi ứng dụng của AI đã đi sâu vào các ứng dụng thực tiễn hơn là trên các bài báo nghiên cứu, khi các “ông lớn” trong ngành sản xuất bắt đầu tích hợp các giải pháp có sử dụng AI vào dây chuyền sản xuất, sự khan hiếm dữ liệu đang nổi lên như một thách thức lớn.
Không giống như các công ty về Internet hay dịch vụ điện tử, nơi có dữ liệu từ hàng tỷ người dùng để dễ dàng đào tạo các mô hình AI mạnh mẽ, việc thu thập một lượng dữ liệu lớn trong sản xuất thường không khả thi và tốn nhiều chi phí. Ví dụ, trong sản xuất ô tô, nơi mà các mô hình cải tiến năng suất và chất lượng (Lean Six Sigma) đã được áp dụng rộng rãi, hầu hết các nhà cung cấp hàng đầu và các OEM có ít hơn 3 đến 4 sản phẩm lỗi trên 1 triệu bộ phận.
Sự khan hiếm dữ liệu đang nổi lên như một thách thức lớn.
Sự hiếm có của những dữ liệu lỗi này khiến cho việc huấn luyện các mô hình để kiểm tra trực quan và nhận biết chúng là rất khó khăn. Trong một khảo sát gần đây của MAPI, 58% các nhà nghiên cứu ứng dụng về AI được hỏi cho rằng rào cản quan trọng nhất đối với việc triển khai các giải pháp AI liên quan đến việc thiếu tài nguyên về dữ liệu.
Áp dụng AI cho dữ liệu nhỏ như thế nào? Big Data đã hỗ trợ rất tốt để các công ty về Internet sử dụng các mô hình AI. Vậy với dữ liệu nhỏ cho các nhà sản xuất thì sao, làm thế nào để các mô hình AI hoạt động một cách hiệu quả? Những nghiên cứu tiến bộ mới nhất gần đây trong AI đang đưa điều này trở thành hiện thực. Các nhà sản xuất có thể áp dụng một số các kỹ thuật dưới đây để khắc phục vấn đề về thiếu hụt dữ liệu ngay cả khi chỉ có 1 vài dữ liệu lỗi hoặc thậm chí ít hơn:
– Công nghệ tạo dữ liệu tổng hợp (synthesis data generation) được áp dụng để tạo ra các hình ảnh mới khó so với dữ liệu thu thập được trong thực tế. Những tiến bộ gần đây trong các kỹ thuật như GANs(generative adversarial network), VA (variational autoencoders) hay data augmentation (auto augmentation, random augmentation) giải quyết một phần bài toán tạo thêm các dữ liệu.
– Học chuyển giao (transfer learning) là một kỹ thuật cho phép các mô hình AI học tập theo một nhiệm vụ liên quan có nhiều dữ liệu, sau đó sử dụng kiến thức này để giải quyết các bài toán có tập dữ liệu nhỏ hơn. Ví dụ, một mô hình AI có thể học cách tìm và phát hiện vết lõm từ 1000 hình ảnh về vết lõm được thu thập trên nhiều vật liệu và sản phẩm khác nhau. Sau đó, có thể tiếp tục sử dụng mô hình này với các khả năng về nhận diện vết lõm một cách tổng quát để huấn luyện thêm với một vài hình ảnh về vết lõm trong một sản phẩm cụ thể.
– Học tự giám sát (self-supervised learning): Ngoài việc sử dụng các label do chính con người gán nhãn, mô hình sẽ sử dụng thêm một lượng lớn các dữ liệu do chính nó gãn nhán cho việc học tập ở các bước và giai đoạn tiếp theo.
– One-shot and few-shot learning: Mô hình tập trung vào việc nhận biết và phân loại 1 đối tượng dựa vào sự khác biệt (thông qua 1 hay 1 vài ví dụ) với các đối tượng khác, từ đó có thể nhận dạng được các đối tượng đặc biệt này. One-shot learning được áp dụng rất nhiều trong các bài toán về nhận diện khuôn mặt.
– Phát hiện bất thường (abnormal detection): Mô hình AI chủ yếu học tập thông qua các dữ liệu và ví dụ về các trường hợp OK. Sau đó, mô hình AI sẽ sử dụng thuật toán để gắn cờ bất cứ dữ liệu nào có sự sai lệch đáng kể so với các trường hợp OK.
– Sử dụng đặc tính được đề xuất bởi con người (hand-code knowledge) là một phương pháp sử dụng kết hợp AI và các kỹ sư chuyên ngành hẹp. Nhóm AI sẽ cố gắng khai thác kiến thức của các kỹ sư và biến đổi các kiến thức này thành các đặc tính dữ liệu giúp cho mô hình có thể học tập tốt hơn. Học máy hiện đại có xu hướng sử dụng các hệ thống dữ liệu lớn thay vì kiến thức và tư duy của con người, nhưng đối với các bài toán dữ liệu nhỏ thì các mô hình AI vẫn có thể tận dụng rất tốt các kiến thức này.
Bằng cách kết hợp các phương pháp này, chúng ta có thể xây dựng và triển khai các mô hình AI hiệu quả với lượng dữ liệu nhỏ, thậm chí là rất nhỏ. Đối với các nhà sản xuất, các phương pháp này giảm thiểu thời gian và nỗ lực cho việc gán nhãn một lượng dữ liệu khổng lồ, giúp cho các mô hình AI đi vào hoạt động và tạo ra giá trị thực tế sớm hơn.
Nguồn: https://amatech.funix.edu.vn/2020/03/13/huan-luyen-cac-mo-hinh-ai-voi-du-lieu-nho/