Как известно, ИИ-функции Apple Intelligence в iOS 18 будут доступны только iPhone 15 Pro/Pro Max и следующим поколениям смартфонов. Теперь компания решила объяснить, почему ситуация именно такова.
Итак, эти модели, когда вы запускаете их во время выполнения, называются логическим выводом, а вывод больших языковых моделей требует невероятно больших вычислительных затрат. Итак, это сочетание пропускной способности устройства и размера Apple Neural Engine, чтобы такое устройство было способно создавать эти модели достаточно быстро. Теоретически вы могли бы запустить эти модели на очень старом устройстве, но это было бы настолько медленно, что это было бы бесполезно
Под пропускной способностью, вероятно, Apple имеет в виду пропускную способность ОЗУ. При этом объём ОЗУ компания в качестве критерия не упоминает, хотя считалось, что это одна из основных причин. Ну и, конечно, важна производительность блока NPU. Правда, тут стоит вспомнить, что функции Apple Intelligence будут доступны в том числе на ПК и планшетах с SoC M1, у которой NPU имеет производительность всего 11 TOPS. Та же A16 Bionic имеет 17 TOPS, у A15 Bionic показатель равен 15,8 TOPS, и даже у A14 Bionic это те же 11 TOPS, что и у M1.