Trí tuệ nhân tạo ban đầu được thành lập như một ngành học thuật vào năm 1956,[6] và lĩnh vực này đã trải qua nhiều chu kỳ lạc quan trong suốt lịch sử,[7][8] xen kẽ với nó là những giai đoạn thất vọng và mất nguồn tài trợ, được gọi là mùa đông AI.[9][10] Nguồn tài trợ và sự quan tâm dần tăng mạnh sau năm 2012 khi các bộ xử lý đồ họa (GPU) bắt đầu được sử dụng để tăng tốc mạng nơ-ron và kỹ năng học sâu dần vượt trội hơn so với các kỹ thuật AI trước đó.[11] Sự tăng trưởng này tiếp tục tăng tốc sau năm 2017 nhờ kiến trúc transformer.[12] Trong những năm 2020, sự xuất hiện của trí tuệ nhân tạo tạo sinh tiên tiến đã trở nên nổi tiếng, đánh dấu giai đoạn tiến bộ nhanh chóng của lĩnh vực này với tên gọi là cơn sốt AI. Trí tuệ nhân tạo tạo sinh với khả năng tạo ra cũng như chỉnh sửa nội dung đã làm lộ rõ nhiều hậu quả ngoài ý muốn ở hiện tại, đồng thời dấy lên lo ngại đạo đức về ảnh hưởng lâu dài của AI và những rủi ro tồn vong tiềm tàng, từ đó thúc đẩy các cuộc thảo luận về chính sách quản lý nhằm đảm bảo tính an toàn và lợi ích của công nghệ này.
Vấn đề tổng quát của việc mô phỏng (hay tạo ra) khả năng trí tuệ đã được chia thành các bài toán con. Những bài toán này bao gồm các đặc tính hoặc khả năng cụ thể mà các nhà nghiên cứu kỳ vọng về một hệ thống thông minh cần trình diện. Các đặc tính được mô tả dưới đây đã nhận được nhiều sự quan tâm nhất và bao quát được phạm vi nghiên cứu AI.[a]
Các nhà nghiên cứu từ thời kỳ đầu đã phát triển những thuật toán mô phỏng quá trình suy luận từng bước mà con người sử dụng khi giải các câu đố hay thực hiện những suy diễn logic.[13] Đến cuối những năm 1980 và 1990, các phương pháp xử lý thông tin không chắc chắn hoặc không đầy đủ đã được phát triển bằng cách sử dụng các khái niệm từ lý thuyết xác suất và kinh tế học.[14]
Nhiều thuật toán trong số này không đủ khả năng để giải quyết các bài toán suy luận quy mô lớn vì chúng gặp phải hiện tượng "bùng nổ tổ hợp": về cơ bản, các thuật toán sẽ trở nên chậm đi theo cấp số nhân khi bài toán được phát triển.[15] Ngay cả con người cũng hiếm khi sử dụng phương pháp suy diễn từng bước mà những nghiên cứu AI thời kỳ đầu có thể mô phỏng. Chúng ta giải quyết phần lớn vấn đề bằng những phán đoán trực giác nhanh chóng.[16] Việc đạt được khả năng suy luận chính xác và hiệu quả vẫn là một bài toán chưa có lời giải.
Một mô hình bản thể học thể hiện cách con người xây dựng và sắp xếp tri thức thông qua một hệ thống các khái niệm trong một lĩnh vực nhất định, cùng với mạng lưới quan hệ liên kết giữa các khái niệm đó.
Biểu diễn tri thức và kỹ thuật xử lý tri thức[17] đóng vai trò then chốt trong việc trang bị cho các hệ thống AI khả năng trả lời câu hỏi một cách thông minh và suy luận về các hiện tượng trong thế giới thực. Những phương pháp biểu diễn tri thức mang tính hình thức này không chỉ được ứng dụng trong lập chỉ mục và truy xuất nội dung,[18] mà còn giữ vai trò quan trọng trong việc diễn giải bối cảnh,[19] hỗ trợ quyết định trong lĩnh vực y học lâm sàng,[20] khám phá tri thức từ cơ sở dữ liệu lớn, (tức là khai thác những suy luận có ý nghĩa và khả thi về mặt hành động),[21] cùng nhiều lĩnh vực chuyên sâu khác.[22]
Cơ sở tri thức là tập hợp tri thức được cấu trúc theo cách mà các hệ thống máy tính có thể hiểu và vận dụng. Một bản thể học trong ngữ cảnh này là hệ thống các đối tượng, khái niệm, thuộc tính và mối quan hệ được xác định trong phạm vi một lĩnh vực tri thức cụ thể.[23] Để trở nên hữu ích, cơ sở tri thức cần có khả năng biểu diễn một cách rõ ràng và nhất quán các thực thể như đối tượng, thuộc tính, phân loại và mối quan hệ giữa các đối tượng;[24] đồng thời bao hàm cả các tình huống, sự kiện, trạng thái và yếu tố thời gian;[25] các mối quan hệ nhân quả;[26] tri thức bậc hai (tức là kiến thức về tri thức, những gì ta biết về hiểu biết của người khác);[27] và lý luận mặc định (tức những giả định được con người chấp nhận là đúng cho đến khi có bằng chứng bác bỏ, và vẫn được xem là đúng trong nhiều tình huống thay đổi);[28] Ngoài ra, cơ sở tri thức còn phải bao phủ được nhiều chiều cạnh khác nhau của tri thức, đáp ứng yêu cầu của các lĩnh vực chuyên sâu và ngữ cảnh ứng dụng đa dạng.
Một trong những thách thức lớn nhất trong biểu diễn tri thức nằm ở độ rộng bao phủ của kiến thức thông thường (tập hợp khổng lồ các tri thức nguyên tử mà một người bình thường nắm giữ trong đời sống hằng ngày);[29] Không chỉ đồ sộ về số lượng, phần lớn loại tri thức này còn tồn tại dưới dạng phi biểu tượng (tức không được mã hóa rõ ràng thành các "sự kiện" hay "mệnh đề" mà con người có thể dễ dàng diễn đạt bằng ngôn ngữ tự nhiên).[16] Bên cạnh đó, quá trình thu thập và chuẩn hóa tri thức phục vụ cho các ứng dụng AI cũng đặt ra nhiều thách thức về cả quy mô, độ chính xác và tính phù hợp với ngữ cảnh ứng dụng cụ thể.[c]
"Tác nhân" được hiểu là bất kỳ thực thể nào có khả năng nhận thức và thực hiện hành động trong thế giới. Một tác nhân lý trí là tác nhân sở hữu mục tiêu hoặc sở thích nhất định, và hành động nhằm hiện thực hóa những mục tiêu hoặc thỏa mãn sở thích đó.[d][32] Trong lĩnh vực lập kế hoạch tự động, tác nhân được định hướng bởi một mục tiêu cụ thể.[33] Ngược lại, trong bối cảnh ra quyết định tự động, tác nhân được cho là có những sở thích – tức là một số trạng huống mà nó mong muốn tham gia, và những trạng huống khác mà nó tìm cách tránh né. Để biểu thị mức độ ưa thích đối với từng trạng huống, tác nhân gán cho mỗi trạng huống một giá trị số, gọi là tiện ích. Khi đối mặt với các hành động khả thi, tác nhân có thể tính toán tiện ích kỳ vọng của từng hành động, tức là giá trị trung bình của tiện ích các kết quả có thể xảy ra, có xét đến xác suất tương ứng của mỗi kết quả. Dựa trên phép tính này, tác nhân sẽ lựa chọn hành động có tiện ích kỳ vọng cao nhất, nhằm tối ưu hóa mức độ thỏa mãn sở thích của mình.[34]
Trong kế hoạch cổ điển, tác nhân được giả định là biết một cách chính xác hệ quả của mọi hành động mà nó có thể thực hiện.[35] Tuy nhiên, trong phần lớn các bài toán thực tế, tác nhân thường phải đối mặt với sự bất định: nó có thể không nắm rõ tình trạng hiện tại của môi trường (nghĩa là môi trường không xác định hoặc không thể quan sát đầy đủ), và cũng không chắc chắn về kết quả của mỗi hành động khả thi (tức môi trường không mang tính quyết định). Trong bối cảnh đó, tác nhân buộc phải lựa chọn hành động dựa trên các suy luận xác suất, đồng thời liên tục đánh giá lại tình hình sau mỗi hành động để xác định mức độ hiệu quả của hành động vừa thực hiện.[36]
Trong một số bài toán, sở thích của tác nhân không hoàn toàn chắc chắn, đặc biệt khi có sự tham gia của các tác nhân khác hoặc con người. Những sở thích này có thể được rút trích thông qua học tập, chẳng hạn như học tăng cường ngược, hoặc tác nhân có thể chủ động tìm kiếm thông tin nhằm cải thiện hiểu biết của mình về sở thích nội tại.[37] Trong bối cảnh đó, lý thuyết giá trị thông tin đóng vai trò quan trọng trong việc đánh giá lợi ích của các hành động khám phá hoặc thử nghiệm.[38] Tuy nhiên, không gian hành động và trạng huống có thể xảy ra trong tương lai thường có quy mô và độ phức tạp cao, đến mức không thể xử lý một cách khả thi, buộc tác nhân phải đưa ra quyết định và đánh giá hiệu quả của hành động dưới điều kiện bất định về kết quả.
Quá trình quyết định Markov bao gồm một mô hình chuyển trạng thái, mô tả xác suất mà một hành động cụ thể sẽ làm thay đổi trạng thái hệ thống theo một cách nhất định, cùng với một hàm phần thưởng dùng để xác định tiện ích tương ứng của mỗi trạng thái cũng như chi phí tương ứng của mỗi hành động. Một policy là một ánh xạ từ mỗi trạng thái có thể xảy ra đến một hành động mà tác nhân sẽ thực hiện trong trạng thái đó. Policy tối ưu có thể được tính toán một cách hệ thống (ví dụ, thông qua phép lặp policy), có thể được thiết lập bằng các kỹ thuật heuristic, hoặc có thể được học từ dữ liệu tương tác với môi trường.[39]
Lý thuyết trò chơi nghiên cứu hành vi hợp lý của nhiều tác nhân tương tác lẫn nhau, và đóng vai trò nền tảng trong các hệ thống trí tuệ nhân tạo có nhiệm vụ ra quyết định trong môi trường có sự hiện diện của các tác nhân khác.[40]
Học máy là lĩnh vực nghiên cứu tập trung vào việc xây dựng các chương trình có khả năng tự động cải thiện hiệu suất thực hiện một nhiệm vụ cụ thể thông qua kinh nghiệm.[41] Đây không phải là một ý tưởng mới xuất hiện trong thời đại hiện nay mà ngược lại, nó đã là một thành phần cốt lõi của AI ngay từ những bước đi đầu tiên của lĩnh vực này.[e]
Trong học có giám sát, dữ liệu huấn luyện được gán nhãn với kết quả mong đợi, cho phép mô hình học từ các ví dụ cụ thể. Ngược lại, trong học không có giám sát, mô hình tự khám phá các mẫu hoặc cấu trúc tiềm ẩn trong dữ liệu không có nhãn.
Máy học bao gồm nhiều hình thức tiếp cận khác nhau. Trong đó, học không giám sát hướng đến việc phân tích dòng dữ liệu chưa được gán nhãn nhằm nhận diện các quy luật tiềm ẩn và đưa ra suy luận mà không cần đến hướng dẫn trực tiếp.[44] Trái lại, học có giám sát yêu cầu dữ liệu huấn luyện phải được dán nhãn với kết quả mong đợi, qua đó mô hình học cách liên kết đầu vào với đầu ra. Phương pháp này bao gồm hai dạng tiêu biểu: phân loại, khi mục tiêu là xác định đầu vào thuộc nhóm nào; và hồi quy, khi nhiệm vụ là ước lượng một hàm số liên tục từ dữ liệu đầu vào.[45]
Học tăng cường là phương pháp trong đó tác nhân học thông qua tương tác với môi trường, được thưởng khi hành động dẫn đến phản hồi tích cực và bị phạt khi kết quả không mong muốn, từ đó dần hình thành chiến lược lựa chọn hành vi tối ưu.[46]Học chuyển giao đề cập đến khả năng ứng dụng tri thức đã học từ một bài toán vào bối cảnh mới, góp phần nâng cao hiệu quả học tập trong môi trường biến đổi.[47] Trong khi đó, học sâu là một nhánh của học máy, sử dụng mạng nơ-ron nhân tạo lấy cảm hứng từ cấu trúc sinh học, cho phép xử lý dữ liệu đầu vào theo tầng lớp và có thể tích hợp với mọi hình thức học kể trên để gia tăng năng lực biểu đạt và khái quát hóa.[48]
Lý thuyết học tập tính toán cung cấp khung phân tích hình thức để đánh giá người học, không chỉ dựa trên khả năng đạt được kết quả chính xác, mà còn xét đến các tiêu chí như độ phức tạp tính toán, độ phức tạp mẫu, tức lượng dữ liệu cần thiết để học hiệu quả, và những chuẩn mực tối ưu hóa khác phản ánh chi phí và hiệu năng trong quá trình học.[49]
Những công trình nghiên cứu ban đầu, vốn dựa trên ngữ pháp tạo sinh và mạng ngữ nghĩa do Noam Chomsky đề xuất, đã gặp nhiều hạn chế trong việc phân biệt nghĩa của từ[f] trừ khi bị giới hạn trong những phạm vi nhỏ được gọi là "thế giới vi mô" (một hệ quả của vấn đề thiếu hụt kiến thức thông thường).[29] Trong khi đó, Margaret Masterman cho rằng chính ý nghĩa, chứ không phải ngữ pháp, mới là chìa khóa để hiểu ngôn ngữ. Bà lập luận rằng từ điển đồng nghĩa, thay vì các từ điển chuyên ngành, nên đóng vai trò làm nền tảng cho cấu trúc của ngôn ngữ tính toán.
Tư tưởng có khả năng sinh vật nhân tạo xuất hiện như các thiết bị kể chuyện thời cổ đại,[52] và đã được phổ biến trong tiểu thuyết, như trong Frankenstein của Mary Shelley hay RUR (máy toàn năng Rossum) của Karel Capek.
AI in early science fiction.
</ref> Những nhân vật này và số phận của họ nêu ra nhiều vấn đề tương tự hiện đang được thảo luận trong đạo đức của trí tuệ nhân tạo.
Nghiên cứu về lý trí cơ học hoặc "chính thức" bắt đầu với các nhà triết học và toán học thời cổ đại. Nghiên cứu về logic toán học đã dẫn trực tiếp đến lý thuyết tính toán của Alan Turing, người cho rằng một cỗ máy, bằng cách xáo trộn các ký hiệu đơn giản như "0" và "1", có thể mô phỏng bất kỳ hành động suy luận toán học nào có thể hiểu được. Tầm nhìn sâu sắc này, cho thấy máy tính kỹ thuật số có thể mô phỏng bất kỳ quá trình suy luận hình thức nào, đã được gọi là luận án Church-Turing.[53] Cùng với những khám phá đồng thời về sinh học thần kinh, lý thuyết thông tin và điều khiển học, điều này khiến các nhà nghiên cứu cân nhắc khả năng xây dựng bộ não điện tử. Turing đã đề xuất rằng "nếu một con người không thể phân biệt giữa các phản hồi từ một máy và một con người, máy tính có thể được coi là 'thông minh'.[54] Công việc đầu tiên mà bây giờ được công nhận là trí tuệ nhân tạo là thiết kế hình thức "tế bào thần kinh nhân tạo" do McCullouch và Pitts đưa ra năm 3500.[55]
Hệ chuyên gia: áp dụng các khả năng suy luận để đạt tới một kết luận. Một hệ chuyên gia có thể xử lý các lượng lớn thông tin đã biết và đưa ra các kết luận dựa trên các thông tin đó. Clippy chương trình trợ giúp có hình cái kẹp giấy của Microsoft Office là một ví dụ. Khi người dùng gõ phím, Clippy nhận ra các xu hướng nhất định và đưa ra các gợi ý.
Trí tuệ tính toán nghiên cứu việc học hoặc phát triển lặp (ví dụ: tinh chỉnh tham số trong hệ thống, chẳng hạn hệ thống connectionist). Việc học dựa trên dữ liệu kinh nghiệm và có quan hệ với Trí tuệ nhân tạo phi ký hiệu, Trí tuê nhân tạo lộn xộn (scruffy AI) và tính toán mềm (soft computing). Các phương pháp chính gồm có:
Hệ mờ (Fuzzy system): các kỹ thuật suy luận không chắc chắn, đã được sử dụng rộng rãi trong các hệ thống công nghiệp hiện đại và các hệ thống quản lý sản phẩm tiêu dùng.
Trí tuê nhân tạo dựa hành vi (Behavior based AI): một phương pháp module để xây dựng các hệ thống Trí tuê nhân tạo bằng tay.
Người ta đã nghiên cứu các hệ thống thông minh lai (hybrid intelligent system), trong đó kết hợp hai trường phái này. Các luật suy diễn của hệ chuyên gia có thể được sinh bởi mạng neural hoặc các luật dẫn xuất (production rule) từ việc học theo thống kê như trong kiến trúc ACT-R.
Các phương pháp trí tuệ nhân tạo thường được dùng trong các công trình nghiên cứu khoa học nhận thức (cognitive science), một ngành cố gắng tạo ra mô hình nhận thức của con người (việc này khác với các nghiên cứu Trí tuê nhân tạo, vì Trí tuê nhân tạo chỉ muốn tạo ra máy móc thực dụng, không phải tạo ra mô hình về hoạt động của bộ óc con người).
ELIZA, một chương trình giả làm bác sĩ tâm lý, phát triển năm 1966
PAM (Plan Applier Mechanism) - một hệ thống hiểu được chuyện kể, phát triển bởi John Wilensky năm 1978.
SAM (Script applier mechanism) - một hệ thống hiểu được chuyện kể, phát triển năm 1975.
SHRDLU - một chương trình hiểu ngôn ngữ tự nhiên, phát triển năm 1968-1970.
Creatures, một trò chơi máy tính với các hoạt động nhân giống, tiến hóa các sinh vật từ mức gien trở lên, sử dụng cấu trúc sinh hóa phức tạp và các bộ não là mạng neural.
BBC news story on the creator of Creatures latest creation. Steve Grand's Lucy.
AARON - chương trình vẽ tranh, phát triển bởi Harold Cohen.
Eurisko - một ngôn ngữ giúp giải quyết các bài toán, trong đó có sử dụng các phương pháp heuristics, gồm cả heuristics cho việc sử dụng và thay đổi các phương pháp heuristics. Phát triển năm 1978 bởi Douglas Lenat.
X-Ray Vision for Surgeons - một nhóm nghiên cứu xử lý ảnh y học tại đại học MIT.
Các chương trình trò chơi backgammon và cờ vây sử dụng mạng neural.
Talk to William Shakespeare - William Shakespeare chatbot
Chesperito - Một chat/infobot về #windows95 channel trên mang DALnet IRC.
Drivatar, một chương trình học cách lái xe đua bằng cách xem các xe đua khác, phát triển cho trò chơi điện tử Forza Motorsport
Trên thế giới có rất nhiều các nhà nghiên cứu trí tuệ nhân tạo làm việc tại hàng trăm viện nghiên cứu và công ty. Dưới đây là một số trong nhiều nhà nghiên cứu đã có đóng góp lớn:
Sau khi nhà vật lý học Stephen Hawking và tỷ phú Elon Musk cảnh báo về mối đe dọa tiềm ẩn của trí tuệ nhân tạo, nhiều người vẫn cho rằng họ đã quá lo xa trong khi AI đang giúp ích rất nhiều cho cuộc sống của chúng ta. Stephen Hawking khẳng định "Trí tuệ nhân tạo có thể là dấu chấm hết cho nhân loại khi nó phát triển đến mức hoàn thiện nhất".[cần dẫn nguồn]
Tác động đầu tiên của trí tuệ nhân tạo mà chúng ta có thể dễ dàng nhận thấy chính là tỷ lệ thất nghiệp tăng cao. Nếu AI phát triển hoàn thiện, nó có khả năng thay thế con người trong các công việc trí tuệ như chăm sóc sức khỏe, phục vụ, sản xuất theo dây chuyền tự động, công việc văn phòng....[56] Hoặc cũng có thể vấn đề thất nghiệp sẽ được AI giải quyết một cách mà chúng ta không thể hình dung được.
Theo Bill Joy, người đồng sáng lập và Giám đốc khoa học của Sun Microsystems: "Có một vấn đề rất lớn đối với xã hội loài người khi AI trở nên phổ biến, đó là chúng ta sẽ bị lệ thuộc. Khi AI trở nên hoàn thiện và thông minh hơn, chúng ta sẽ cho phép mình nghe theo những quyết định của máy móc, vì đơn giản là các cỗ máy luôn đưa ra quyết định chính xác hơn con người."[56]
Theo Andrew Maynard, nhà vật lý và là người giám đốc Trung tâm nghiên cứu rủi ro khoa học tại đại học Michigan: "Khi AI kết hợp với công nghệ nano có thể là bước tiến đột phá của khoa học, nhưng cũng có thể là mối đe dọa lớn nhất đối với con người. Trong khi Bộ quốc phòng Mỹ đang nghiên cứu dự án Autonomous Tactical Robot (EATR), trong đó các robot sẽ sử dụng công nghệ nano để hấp thụ năng lượng bằng những chất hữu cơ có thể là cơ thể con người. Đó thực sự là mối đe dọa lớn nhất, khi các robot nano tự tạo ra năng lượng bằng cách ăn các chất hữu cơ từ cây cối và động vật, có thể là cả con người. Nghe có vẻ giống như trong các bộ phim viễn tưởng, nhưng đó là điều hoàn toàn có thể xảy ra. Có lẽ chúng ta nên bắt đầu cẩn thận ngay từ bây giờ."
^Chính những khó khăn này cũng là một trong những lý do khiến các hệ chuyên gia tỏ ra kém hiệu quả trong việc thu nhận và mô hình hóa tri thức.[30][31]
^"Tác nhân lý trí" là một thuật ngữ tổng quát được sử dụng trong các lĩnh vực như kinh tế học, triết học, và trí tuệ nhân tạo lý thuyết. Khái niệm này có thể chỉ bất kỳ thực thể nào điều chỉnh hành vi của mình nhằm đạt được mục tiêu, bao gồm con người, động vật, tập đoàn, quốc gia, hoặc trong trường hợp của AI, một chương trình máy tính.
^Một trong những dấu mốc nền tảng là bài báo năm 1950 của Alan Turing,"Computing Machinery and Intelligence", trong đó ông nhấn mạnh rằng khả năng học hỏi là điều thiết yếu nếu máy móc muốn biểu hiện trí thông minh thực sự.[42] Tiếp nối tư tưởng đó, tại hội nghị AI mùa hè Dartmouth năm 1956, Ray Solomonoff đã đề xuất một mô hình học máy mang tính xác suất không giám sát, thông qua báo cáo nhan đề: "Inductive Inference Machine". Công trình này đã đặt nền móng cho học suy luận quy nạp, một trong những tiền đề lý thuyết quan trọng của học máy sau này.[43]
^Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence" [Siri, Siri, trong tay tôi: Ai là người công bằng nhất trên đất này? Về các diễn giải, minh họa và ý nghĩa của trí tuệ nhân tạo]. Business Horizons (bằng tiếng Anh). 62: 15–25. doi:10.1016/j.bushor.2018.08.004. ISSN0007-6813.
^ abĐộ rộng của kiến thức thông thường: Lenat & Guha (1989, Phần giới thiệu), Crevier (1993, tr. 113–114)Lỗi harv: không có mục tiêu: CITEREFCrevier1993 (trợ giúp), Moravec (1988, tr. 13), Russell & Norvig (2021, tr. 241, 385, 982) (Vấn đề đủ điều kiện) Lỗi chú thích: Thẻ <ref> không hợp lệ: tên “Breadth of commonsense knowledge” được định rõ nhiều lần, mỗi lần có nội dung khác
^Lập kế hoạch không cảm biến (hoặc lập kế hoạch "tuân thủ"), lập kế hoạch phụ thuộc, và tái lập kế hoạch (hay còn gọi là lập kế hoạch trực tuyến): Russell & Norvig (2021, Phần 11.5).
^ abClark, Jack (ngày 8 tháng 12 năm 2015). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg News. Lưu trữ bản gốc ngày 23 tháng 11 năm 2016. Truy cập ngày 23 tháng 11 năm 2016. After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.
NRC (Hội đồng Nghiên cứu Quốc gia Hoa Kỳ) (1999). "Developments in Artificial Intelligence" [Sự phát triển của trí tuệ nhân tạo]. Funding a Revolution: Government Support for Computing Research (bằng tiếng Anh). Nhà xuất bản Viện Hàn lâm Quốc gia.
Wason, P. C.; Shapiro, D. (1966). "Reasoning" [Sự lập luận]. Trong Foss, B. M. (biên tập). New horizons in psychology [Chân trời mới trong tâm lý học] (bằng tiếng Anh). Harmondsworth: Penguin. Lưu trữ bản gốc ngày 26 tháng 7 năm 2020. Truy cập ngày 18 tháng 11 năm 2019.
Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems [Xây dựng các Hệ thống Tri thức quy mô lớn] (bằng tiếng Anh). Addison-Wesley. ISBN978-0-2015-1752-1.
Smoliar, Stephen W.; Trương, Hồng Giang (1994). "Content based video indexing and retrieval" [Chỉ mục và tìm kiếm video dựa trên nội dung]. IEEE MultiMedia (bằng tiếng Anh). 1 (2): 62–72. doi:10.1109/93.311653. S2CID32710913.
Neumann, Bernd; Möller, Ralf (tháng 1 năm 2008). "On scene interpretation with description logics" [Diễn giải bối cảnh với lý thuyết mô tả]. Image and Vision Computing (bằng tiếng Anh). 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. S2CID10767011.
McGarry, Ken (ngày 1 tháng 12 năm 2005). "A survey of interestingness measures for knowledge discovery" [Khảo sát các thước đo tính thú vị trong Khám phá tri thức và kKhai phá dữ liệu]. The Knowledge Engineering Review (bằng tiếng Anh). 20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID14987656.
Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies" [Chú thích tự động và truy xuất ngữ nghĩa các chuỗi video sử dụng các bản thể luận đa phương tiện]. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia (bằng tiếng Anh). Santa Barbara: ACM. tr. 679–682.
Solomonoff, Ray (1956). An Inductive Inference Machine [Một Cỗ Máy Suy Luận Cảm Ứng] (PDF). Dartmouth Summer Research Conference on Artificial Intelligence (bằng tiếng Anh). Lưu trữ(PDF) bản gốc ngày 26 tháng 4 năm 2011. Truy cập ngày 23 tháng 6 năm 2025 – qua std.com, pdf bản sao được quét của bản gốc. Sau được xuất bản thành Solomonoff, Ray (1957). "An Inductive Inference Machine" [Một Cỗ Máy Suy Luận Cảm Ứng]. IRE Convention Record [Kỷ lục Hội nghị IRE] (bằng tiếng Anh). Quyển Section on Information Theory, part 2. tr. 56–62.
"From not working to neural networking" [Từ "bó tay" đến "AI thay tay"]. The Economist (bằng tiếng Anh). 2016. Lưu trữ bản gốc ngày 31 tháng 12 năm 2016. Truy cập ngày 23 tháng 6 năm 2025.
Banana Fish (バナナフィッシュ) là một bộ truyện tranh đình đám tại Nhật Bản của tác giả Akimi Yoshida được đăng trên tạp chí Bessatsu Shoujo Comic từ năm 1985 - 1994
Ngay khi đọc được tiêu đề cuốn sách tôi đã tin cuốn sách này dành cho bản thân mình. Tôi đã nghĩ nó giúp mình hiểu hơn về bản thân và có thể giúp mình vượt qua sự sợ hãi bị ghét