Может ли искусственный интеллект мыслить, как человек, или его способности сильно ограничены?
искусственный интеллект общего назначения ( AGI ) — это горячая тема, которая вызывает споры между учёными, бизнесменами и общественностью. Некоторые утверждают, что мы близки к созданию системы, которая может решать любые задачи на уровне человека или даже лучше. Другие сомневаются в том, что такое вообще возможно.
Одна из самых известных систем, которая сейчас претендует на звание AGI, — GPT-4 от компании OpenAI . Это большая языковая модель ( LLM ), которая анализирует миллиарды текстов из интернета и генерирует разные виды выходных данных, включая стихи и программный код. GPT-4 уже не раз показала впечатляющие результаты, такие как сдача юридического экзамена и увеличение производительности труда в Великобритании, которое привело к экономии 39 миллиардов долларов.
Microsoft, которая в январе вложила в OpenAI 10 миллиардов долларов, провела ряд собственных экспериментов с GPT-4, в ходе которых специалисты пришли к выводу, что модель может манипулировать сложными концепциями, что является ключевым аспектом рассуждений.
Однако далеко не все согласны с подобными тезисами. Эксперты по когнитивной науке и нейробиологии говорят, что большие языковые модели не могут мыслить и понимать язык. Они также критикуют использование теста Тьюринга, метода оценки способности машины имитировать человека в диалоге, как критерия для оценки машинного интеллекта.
Доктор Андреа Мартин из Макс-Планковского института говорит, что понятие AGI само по себе спорно. Она также считает, что использование теста Тьюринга для определения способности машины мыслить как человек — просто неправильная трактовка самой концепции теста Тьюринга.
Профессор Тали Шарот из Университетского колледжа Лондона считает, что большие языковые модели способны учиться и приобретать знания и навыки, но это не делает их похожими на людей. А профессор Кэсвелл Барри из Калифорнийского университета утверждает, что OpenAI «скормила» своей модели большую часть легкодоступных цифровых текстов в интернете, но не наделила её способностью манипулировать абстрактными концепциями или генерировать их.
Известный программист Грейди Буч склоняется к тому, что AGI вообще не случится в нашей жизни из-за отсутствия «правильной архитектуры для семантики причинности, абдуктивного рассуждения, здравого смысла, теории разума и субъективного опыта».
Большие языковые модели также сталкиваются с проблемами этики и юридической ответственности. OpenAI не так давно подверглась коллективному иску за скрапинг защищённых авторских правом данных. Кроме того, было уже не раз доказано, что ответы GPT-4 содержат множество расовых и общественных предубеждений.
Хотя современные большие языковые модели и правда демонстрируют высокий уровень обработки и генерации текста, они всё ещё далеки от полного понимания и анализа контекста, как и от настоящего понимания языка и межличностных взаимодействий, характерных для человеческого интеллекта. Более того, человеческий мозг обладает способностью к творческому мышлению, абстрактному и эмоциональному пониманию, а также интуиции и здравому смыслу, что до сих пор остается вызовом для разработчиков искусственного интеллекта.
Таким образом, хотя большие языковые модели действительно могут быть полезными, их сторонники склонны преувеличивать как их ценность, так и их возможности. Вряд ли искусственный интеллект в ближайшие годы сможет хоть как-то приблизиться к человеческому мозгу по его всесторонним способностям и возможностям.
искусственный интеллект общего назначения ( AGI ) — это горячая тема, которая вызывает споры между учёными, бизнесменами и общественностью. Некоторые утверждают, что мы близки к созданию системы, которая может решать любые задачи на уровне человека или даже лучше. Другие сомневаются в том, что такое вообще возможно.
Одна из самых известных систем, которая сейчас претендует на звание AGI, — GPT-4 от компании OpenAI . Это большая языковая модель ( LLM ), которая анализирует миллиарды текстов из интернета и генерирует разные виды выходных данных, включая стихи и программный код. GPT-4 уже не раз показала впечатляющие результаты, такие как сдача юридического экзамена и увеличение производительности труда в Великобритании, которое привело к экономии 39 миллиардов долларов.
Microsoft, которая в январе вложила в OpenAI 10 миллиардов долларов, провела ряд собственных экспериментов с GPT-4, в ходе которых специалисты пришли к выводу, что модель может манипулировать сложными концепциями, что является ключевым аспектом рассуждений.
Однако далеко не все согласны с подобными тезисами. Эксперты по когнитивной науке и нейробиологии говорят, что большие языковые модели не могут мыслить и понимать язык. Они также критикуют использование теста Тьюринга, метода оценки способности машины имитировать человека в диалоге, как критерия для оценки машинного интеллекта.
Доктор Андреа Мартин из Макс-Планковского института говорит, что понятие AGI само по себе спорно. Она также считает, что использование теста Тьюринга для определения способности машины мыслить как человек — просто неправильная трактовка самой концепции теста Тьюринга.
Профессор Тали Шарот из Университетского колледжа Лондона считает, что большие языковые модели способны учиться и приобретать знания и навыки, но это не делает их похожими на людей. А профессор Кэсвелл Барри из Калифорнийского университета утверждает, что OpenAI «скормила» своей модели большую часть легкодоступных цифровых текстов в интернете, но не наделила её способностью манипулировать абстрактными концепциями или генерировать их.
Известный программист Грейди Буч склоняется к тому, что AGI вообще не случится в нашей жизни из-за отсутствия «правильной архитектуры для семантики причинности, абдуктивного рассуждения, здравого смысла, теории разума и субъективного опыта».
Большие языковые модели также сталкиваются с проблемами этики и юридической ответственности. OpenAI не так давно подверглась коллективному иску за скрапинг защищённых авторских правом данных. Кроме того, было уже не раз доказано, что ответы GPT-4 содержат множество расовых и общественных предубеждений.
Хотя современные большие языковые модели и правда демонстрируют высокий уровень обработки и генерации текста, они всё ещё далеки от полного понимания и анализа контекста, как и от настоящего понимания языка и межличностных взаимодействий, характерных для человеческого интеллекта. Более того, человеческий мозг обладает способностью к творческому мышлению, абстрактному и эмоциональному пониманию, а также интуиции и здравому смыслу, что до сих пор остается вызовом для разработчиков искусственного интеллекта.
Таким образом, хотя большие языковые модели действительно могут быть полезными, их сторонники склонны преувеличивать как их ценность, так и их возможности. Вряд ли искусственный интеллект в ближайшие годы сможет хоть как-то приблизиться к человеческому мозгу по его всесторонним способностям и возможностям.
- Источник новости
- www.securitylab.ru