
Тази седмица OpenAI пусна най-новата си версия на ChatGPT. Въпреки че чатботът с изкуствен интелект продължава да добавя нови възможности, нараства загрижеността, че подобни инструменти с изкуствен интелект могат да се използват и за лоши цели.
Иля Суцкевер, главен учен и съосновател на OpenAI, заяви пред The Verge, че ще дойде време, когато ИИ ще може доста лесно да се използва за причиняване на вреди.
„Тези модели са много мощни и стават все по-мощни”, каза той.
В един момент ще бъде доста лесно, ако някой иска, да причини голяма вреда с тези модели.
Той направи тези забележки, докато обясняваше защо OpenAI вече не предоставя подробна информация за това как обучава тези модели.
Тъй като възможностите стават все по-големи, има смисъл да не искате да ги разкривате. Напълно очаквам, че след няколко години за всички ще бъде напълно очевидно, че разкриването на ИИ просто не е разумно.
Главният изпълнителен директор на OpenAI Сам Алтман е изразявал подобни опасения в миналото.
В интервю по-рано тази година той заяви, че макар най-добрият сценарий за ИИ да е „толкова невероятно добър, че ми е трудно дори да си го представя“, най-лошият вариант е „гасене на светлините за всички нас“.
В една тема в Twitter миналия месец Алтман заяви, че според него инструментите на ИИ могат да помогнат на хората да станат по-продуктивни, по-здрави и по-умни, но също така добави, че светът може би не е „толкова далеч от потенциално страшни“ инструменти на изкуствения интелект. Смята, че регулирането им ще бъде „от решаващо значение“.
Коментирайте статията в нашите Форуми. За да научите първи най-важното, харесайте страницата ни във Facebook, и ни последвайте в Telegram и Viber или изтеглете приложението на Kaldata.com за Android, iOS и Huawei!