18 мая, 2023
Что нам делать с искусственным интеллектом?
Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Что нам делать с пьяным матросом?
Господи, спаси!
© БГ
Я уже немного устал от новостей про пьяных матросов искусственный интеллект, но придется потерпеть, потому что они будут сыпаться из каждого утюга ещё год или два. Но и потом развитие ИИ, он же AI, не остановится, просто журналисты/блогеры/тиктокеры и прочие «говорящие головы» устанут от темы. А пока им подкидывают новости не только техногиганты, но и правительства: Великобритания отрегулирует ИИ с трёх сторон, Китай вынес черновик законодательства по ИИ на общественное обсуждение, США хочет «алгоритмической ответственности», европейцы по традиции заседают и так далее. Пока создание и использование систем ИИ никак не ограничено, но, видимо, это ненадолго.
Тут, конечно, есть о чем поспорить — а нужно ли госрегулирование ИИ, и если да — то зачем и как?
Что регулировать
Что такое искусственный интеллект? Благодаря маркетологам так называют всё — от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой вошебный компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (AGI) или сверхинтеллектом (ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.
Так вот, если все виды ИИ мерить одной линейкой и всё зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придётся несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?