OpenAI заявляет, что ИИ «достаточно безопасен», поскольку скандалы вызывают обеспокоенность

Важные новости

OpenAI говорит ИИ «достаточно безопасен», поскольку скандалы вызывают обеспокоенность» /></p>
<p> Генеральный директор OpenAI Сэм Альтман настаивает на том, что OpenAI проделала «огромный объем работы» для обеспечения безопасности своих моделей. </p>
<p>Генеральный директор OpenAI Сэм Альтман защищал технологию искусственного интеллекта своей компании как безопасную для широкого использования, поскольку растет обеспокоенность по поводу потенциальных рисков и отсутствия надлежащих мер защиты для систем искусственного интеллекта в стиле ChatGPT.</p>
<p>Заявление Альтмана прозвучало на мероприятии Microsoft в Сиэтле, где он разговаривал с разработчиками, как раз в тот момент, когда разгорелся новый спор по поводу ИИ-голоса OpenAI, который очень напоминал голос актрисы Скарлетт Йоханссон.</p>
<p>Генеральный директор, получивший мировую известность после того, как OpenAI выпустила ChatGPT в 2022 году. , также пытается решить вопросы безопасности ИИ компании после ухода команды, ответственной за снижение долгосрочных рисков ИИ.</p>
<p>«Мой самый большой совет: сейчас особенное время, и воспользуйтесь им», — обратился Альтман к аудитории разработчиков, стремящихся создавать новые продукты с использованием технологии OpenAI.</p>
<p> «Сейчас не время откладывать то, что нужно. вы планируете делать или ждете следующего», — добавил он.</p>
<p>OpenAI является близким партнером Microsoft и предоставляет основополагающую технологию, в первую очередь большую языковую модель GPT-4, для создания инструментов искусственного интеллекта. .</p>
<p>Microsoft присоединилась к ИИ, выпуская новые продукты и призывая пользователей использовать возможности генеративного ИИ.</p>
<p>«Мы воспринимаем как нечто само собой разумеющееся», что GPT-4 «далек от совершенства… обычно считается достаточно надежным и достаточно безопасным для широкого спектра применений», — сказал Альтман.</p>
<p>Альтман настаивал на том, что OpenAI проделала «огромный объем работы» для обеспечения безопасности своих моделей.</p >
<p>«Когда вы принимаете лекарство, вы хотите знать, какое из них будет безопасным, а с помощью нашей модели вы хотите знать, что оно будет надежным и будет вести себя так, как вы хотите», — добавил он.</p>
<p> р> <р>Однако вопросы о приверженности OpenAI безопасности вновь всплыли на прошлой неделе, когда компания распустила свою группу «суперсогласованности», команду, занимающуюся смягчением долгосрочных опасностей ИИ.</p>
<p>Объявляя о своем уходе, соруководитель группы Ян Лейке раскритиковал OpenAI за то, что он поставил «блестящие новые продукты» выше безопасности в серии постов на X (ранее Twitter).</p>
<p> «Последние несколько месяцев моя команда плыла против ветра», — Лейке сказал.</p>
<p>«Эти проблемы довольно сложно решить, и я обеспокоен тем, что мы не находимся на траектории достижения этой цели».</p>
<p>За этим спором вскоре последовала публичная дискуссия. заявление Йоханссон, которая выразила возмущение по поводу голоса, используемого ChatGPT OpenAI, который звучал так же, как ее голос в фильме 2013 года «Она».</p>
<p>Голос, о котором идет речь, под названием «Небо», был показан на прошлой неделе в выпуск более человекоподобной модели GPT-4o от OpenAI.</p>
<p>В коротком заявлении во вторник Альтман извинилась перед Йоханссон, но заявила, что голос не был основан на ее собственном.</p>
</div></div><div class=

Новости сегодня

Последние новости