И касается она не изменений в дизайне, а искусственного интеллекта.
На презентации Apple, где были представлены 15-й iPhone и смарт-часы Watch Series 9 и Watch Ultra 2, компания уделила много внимания очень скромным нововведениям и улучшениям. Но журналисты CNBC заметили, что Apple умолчала о куда более важных изменениях в «мозгах» своих устройств, которые касаются искусственного интеллекта и нейросетей.
Нейросети в iPhone 15
Когда на презентации представители Apple говорили о новых процессорах, они сосредоточились лишь на функциях, которые поддерживает «железо». Например, новый чип S9 позволил часам запускать Siri без необходимости связываться для этого с iPhone. Учитывая, что в основе работы Siri лежат алгоритмы искусственного интеллекта, мощный процессор для запуска голосовому помощнику действительно не помешает.
Тем не менее, компания сфокусировала внимание на преимуществах автономной работы Siri, но ни слова не сказала о том, как обновились нейросетевые алгоритмы внутри голосового помощника.
«Apple не любит упоминать искусственный интеллект на конференц-звонках или мероприятиях, посвященных продукту. Из-за этого люди предполагают, что компания отстает от тренда на ИИ, который стал новой парадигмой. Но реальность такова, что Apple очень активно развивает ИИ», — сказал Джин Мюнстер, управляющий партнер инвестиционного фонда Deepwater Asset Management, специализирующегося на технологических компаниях.
По словам Мюнстера, чипы очень важны для ИИ, а Apple лидирует в создании оборудования для реализации этих функций. Например, новые iPhone 15 Pro и Pro Max оснащены процессором A17 Pro, созданным на 3-нм техпроцессе (размер транзисторов на таких чипах составляет 3 нанометра — чуть больше диаметра спирали ДНК). Эти процессоры являются первыми, построенными на таком техпроцессе.
Среди нововведений Apple также отметила обновление предикативного ввода текста и функции улучшения изображения с камеры. Apple умолчала, что в обеих технологиях активно используются алгоритмы ИИ.
Для предикативного ввода, например, могут применяться нейросети-трансформеры, обученные на большом массиве данных и способные с высокой точностью предсказывать последующий текст в сообщениях, написанных человеком. Об их эволюции и постепенном превращении в GPT-модели мы рассказывали в отдельной статье.
Для улучшения изображения с камеры могут использоваться нейросети по анализу изображений, способные «понимать», что изображено на картинке и из этого делать вывод, на каких объектах фокусироваться.
Нейросети в Apple Watch
В смарт-часах была представлена функция Double tap («двойное нажатие») — новый жест для управления различными функциями часов. Для этого надо просто сложить указательный и большой пальцы, однако часам нужны нейросетевые алгоритмы, чтобы распознать этот жест.
Apple в презентации лишь сказала, что алгоритм в часах использует данные с датчиков, а их обработка происходит на новом чипе S9. Никаких деталей относительно самого алгоритма компания не раскрыла. Тем не менее, предполагаем, что это относительно несложный алгоритм анализа изображения. Несложный относительно, например, FaceID, который используется в системах идентификации пользователей в устройствах Apple с 2017 года и, кстати, также работает на базе нейросетей.
Светлана Шульман, маркетолог TexTerra: «Несмотря на то что Apple еще с 2017 (а возможно и раньше) активно занимается изучением ИИ и работой в этом направлении, меня как маркетлога, их молчание не удивляет. Думаю, что стремление Apple делать все лучшее, макисмально топовое и качественное, заставляет их хранить молчание до тех пор, пока у них не появится что-то по истине инновационное в кармашке. И вот тогда они с удовольствием это вытащат и презентуют».Читайте также:
А разве Apple может отключить все айфоны в России? – может (но поступит иначе)
Как отработать негатив: берите пример с Apple и ее истории с Lightning
Доска для виндсерфинга, скутер, графин... – 10 очень странных продуктов Apple