яПрофи Технологии
314 subscribers
10.3K photos
2.88K videos
41 files
6.28K links
🚘 Электромобили.
📱 Apple Service.
🏠 Умный дом.
🔐 Интернет безопасность.

yaprofi.com

Заказать услугу: @yaprofibot

CEO Артём @Timofeev.
Download Telegram
Starship SN20 готов к установке на ускоритель Super Heavy BN4.

Осталось дождаться штиля, чтобы были соблюдены все нормы безопасности.

В дальнейшем по заверениям Илона Маска при использовании автоматизированной «руки»-захвата «Мехазилла» (Mechazilla) погодные условия и ветер никак не буду влиять на установку ракет.
👍1🔥1
Анимация предстоящего первого орбитального теста StarShip и Super Heavy.

ПРИМЕЧАНИЕ: Некоторые аспекты этой анимации неточны и уже устарели. Во время строительства ракет было раскрыто много новой информации, которая не была известна в то время, когда некоторые сцены этот ролик был уже анимированы.
This media is not supported in your browser
VIEW IN TELEGRAM
Беспилотные девайсы. Грязевая пушка.

Инженеры Argo.ai разработали грязевую пушку, которая стреляет грязью на сенсоры беспилотника. Такие тесты нужны для проверки возможностей очистки датчиков во время плохой погоды.

Изобретение прикольное, но есть в этом какая-то недосказанность. Осталось изобрести водяную пушку, которая будет очищать сенсоры такой же мощной струей воды
Есть большая и интересная тема, которую вчера анонсировала Apple. Вся забота — о детях же, конечно!

Вообще речь идет о трех основных вещах:

1. В мессенджере Messages появится инструмент определения фотографий с сексуальным контентом, и он будет предупреждать детей и их родителей о получении такого рода контента. Анализ фото будет проводиться на устройстве, и по умолчанию такие фотографии будут замазываться. Работать эта функция будет только для детских аккаунтов, у пользователей до 13 лет (к тому же опционально). По-моему, супер-полезно, хотя кого-то от Messages и оттолкнет.

2. В Siri и поиске на устройствах появится дополнительная возможность узнать о том, как оставаться в безопасности в онлайне.

3. И самая главная фича, которая вызвала уже довольно сильное бурление в интернете: теперь на устройстве будет проводиться некий анализ фотографий на предмет наличия в них контента с насилием над детьми — Child Sexual Abuse Material (CSAM). На самом деле это будет не совсем анализ в привычном для нас виде, когда потом можно найти все фотографии котиков или автомобиля в фотобиблиотеке. Для анализа будет использоваться база хешей Национального Центра для пропавших и эксплуатируемых детей и других организаций (National Center for Missing and Exploited Children (NCMEC), и сравниваться будет именно совпадение хешей. Раньше подобный анализ проводился над фотографиями, залитыми в iCloud, а теперь он в каком-то виде будет проводиться на устройстве до заливки в iCloud и затем при заливке будут инициироваться дополнительные проверки.

И дальше вроде бы тоже ничего нового: если система будет находить совпадение хешей, то живые люди будут сравнивать результаты (фотографий, которые, как я понимаю, будут заливаться в iCloud с неким криптографическим ваучером). При реальном обнаружении отчет будет передан в этот национальный центр NCMEC и, как я понимаю, оттуда информация попадет правоохранительным органам. Также учетная запись пользователя будет заблокирована (для восстановления можно инициировать апелляцию). Основное изменение во всей этой истории, как я понимаю, заключается в том, что предварительный анализ будет проводиться на устройстве, еще до того, как эти фотографии будут залиты в облако.
Несколько интересных пунктов для контекста и понимания:

– речь не идет о сканировании всех ваших фотографий, которые хранятся на устройстве. Есть база хешей уже известных фотографий, содержащих противоправный контент, и будут сравниваться именно эти хеши. Повторюсь, речь идет об обнаружении только уже известных CSAM изображений.

– сам момент анализа на устройстве пока что мне не до конца понятен. Вроде как safety voucher создается на устройстве, но анализ вроде как проводится только при аплоаде на iCloud Photos. Соответственно, отключив iCloud Photos, можно избежать анализа контента на предмет Child Sexual Abuse Material (если вам есть что скрывать, конечно). По сути, если я правильно понимаю, фотография все равно была бы просканирована при загрузке в iCloud, но часть этого “сканирования” будет происходить на устройстве.

– Само сравнение живыми ревьюверами происходит тоже не в виде просмотра полного изображения — они видят только некоторые элементы, которые могут позволить им понять совпадение или несовпадение с уже известными CSAM контентом

– Если фото не является известным CSAM, Apple ничего не знает о вашей фотографии.

– Отчет в Apple уйдет только в том случае, если будет достигнут некий предел наличия такого контента на устройстве

– Вся эта схема пока что будет работать только в США, и появится с выходом iOS 15.

Пара ссылок по теме:
1. Полный анонс новой функциональности
2. Детальное описание того, как будет работать определение контента, содержащего сцены насилия над детьми
3. Пост в канале с информацией о сканировании фотографий в iCloud
4. Статья в Forbes о том, как работает система определения подобных фотографий в почте

Пара статей с новостями об этом (раз, два)

Интересные треды в твиттере с обсуждением этих изменений: (например, от специалиста по криптографии и кибербезопасности)
Раз
Еще один тред (тоже от специалиста по криптографии), как подобные неизвестные алгоритмы детекции потенциально несут в себе риски для слежки за людьми:
Два

Думаю, не будет лишним напомнить, что Facebook, Dropbox, Google, Microsoft и прочие сканируют фотографии на предмет CSAM, используя все ту же базу уже известных фотографий. Например, Facebook сообщил о 15 млн совпадений с такими фотографий в 2019 году, Dropbox — о 21 тысяче подобных совпадений в 2020 году. Правда, все это происходит исключительно в облаках, а здесь часть задачи по детекции переносится на устройства пользователей. Скорей всего, под этим всем имеются и какие-то юридические основания — типа “нам не дадут сделать end2end шифрование, если не будет детекции такого контента”. Я не удивлюсь, если окажется, что это важное условие для того, чтобы объявить, что бэкапы iCloud станут e2e-зашифррованными, наконец-то.

Apple утверждает, что таким образом конфиденциальность и приватность повышается, но моих знаний в криптографии недостаточно, чтобы понять этот аргумент. Понятно, что ситуации, где действительно происходит насилие над детьми и их сексуальная эксплуатация, требуют основательных подходов и решений. Хотелось бы, чтобы при этом не возникало ощущения, что теперь следят прямо за тобой, причем сразу с помощью твоего же устройства. Вспоминается реклама Apple о том, что “то, что происходит на вашем iPhone, остается на вашем iPhone”.

Ну так, почти. Почитаю еще специалистов, что они об этом говорят.

https://alexmak.net/2021/08/05/child-safety/
Forwarded from Tech Talk
Развивается вчерашняя история, как Apple собирается внедрить в iPhone обязательный сканер детской порнографии. Во-первых пока это будет работать только в США. Во-вторых, сейчас функции предполагается две: обязательный сканер по официальной базе и родительский контроль фото в Семейных аккаунтах.

Первая функция - сканер фото при отправке в iCloud, который будет сравнивать файлы с базой данных Национального центра по делам пропавших без вести и эксплуатируемых детей (NCMEC). Это поиск по известным образцам, и база цифровых отпечатков будет храниться локально на устройствах. "Плохих" совпадающих файлов на iPhone должно быть несколько (не говорят, сколько), тогда iPhone сообщит в Apple.

Вторая функция - это сканер фото, полученных и отправленных детьми до 13 лет через мессенджер iMessage. Это - не поиск по образцам, это нейронка, которая тоже будет работать локально. Опцию смогут включать или выключать родители через настройки Семейного аккаунта, и они же будут получать уведомления.

Если ребенок до 13 лет в Семейном аккаунте хочет отправить фото, которое система считает "откровенным", iMessage покажет уведомление "Хотите ли вы действительно отправить это сообщение? Если да, ваш родитель получит уведомление." Если отказаться, сообщение не отправляется, родитель уведомление не получает. Если согласиться, сообщение сохраняется на устройстве в настройках родительского контроля и удалить его с детского аккаунта невозможно. То же самое со входящими - перед просмотром iMessage будет предупреждать, что отправит родителю уведомление. Можно отказаться и не смотреть. Для пользователей от 13 до 17 лет в семейных аккаунтах система будет предупреждать и сохранять фото, но без уведомления родителя.

Похоже, что в противостоянии технических компаний и государств по поводу шифрования Apple определился с позицией: использовать сквозное шифрование, но локально сканировать содержимое устройств на запрещенный контент.
Тур по Starbase с Илоном Маском. Часть первая.

На канале Everyday Astronaut вышла первая часть видео-интервью с Илоном, в котором он рассказал о прототипе, двигателях и многих других интересных вещах. Вторую часть интервью смотрите тут.

Илон Маск про тур по Starbase, организованный для Everyday Astronaut:
— Это было весело! Я долго не спал и у меня были сильные боли в спине, так что я был не в лучшей форме. Здорово, что ты так много знаешь о том, как работают ракеты, об истории и их разработке. Я буду рад провести ещё один тур по фабрике через месяц или два и поговорить о том, что изменилось с того времени!

Видео на английском, но в настройках можно выбрать автоперевод на десятки языков, русский в том числе. Приятного просмотра!
Установка прототипа Starship на ускоритель в самом разгаре.

За процессом можно следить по ссылке: https://youtu.be/4B2_dfvRZ4M
яПрофи Технологии
Установка прототипа Starship на ускоритель в самом разгаре. За процессом можно следить по ссылке: https://youtu.be/4B2_dfvRZ4M
Илон Маск в Твиттере:

— Starship полностью собран.

Подписчик:

— Каково видеть такое?

Илон Маск:

— Мечта стала реальностью.

Кораблю и ускорителю предстоит пройти огневые испытания. 2 недели нужно SpaceX, чтобы подготовиться к полёту.
Тот момент, когда глава крупной компании:
1. Не разобрался в вопросе совсем.
2. Пытается привлечь внимание к своему продукту.


Глава WhatsApp высказался против функции Apple, разрабатываемой для защиты детей

Он считает, что Apple пошла по неверному пути, так как «создала программное обеспечение, которое может сканировать все личные фотографии».
This media is not supported in your browser
VIEW IN TELEGRAM
Plus.ai показали тестирование робофуры без водителя-испытателя на шоссе в Китае.

Беспилотный грузовик управлялся с помощью технологии PlusDrive 4 уровня автономности, без инженера по безопасности, телеоператора и другого вмешательства человека. Робофура проехала 32 км по реальному шоссе недалеко от Шанхая.

PlusDrive можно будет устанавливать на разные модели грузовиков. А уже в августе-сентябре этого года начнется серийное производство грузовых FAW J7 3 уровня с PlusDrive и сотрудничество Плюса с Amazon.

«Мы понимаем, что есть огромная разница между тестовой демонстрацией беспилотного грузовика и массовым коммерческим продуктом. Готовые для массового внедрения робофуры должны быть значительно безопаснее, чем обычный водитель, прежде чем мы будем готовы выпустить их на дороги», — рассказал CEO Plus.ai Дэвид Лю. Это точно, требования к беспилотам будут гораздо жёстче, чем к обычным водителям. Но, в том числе из-за этих требований и норм беспилотники будут гораздо более безопасными, чем человеко-машины.
На YouTube-канале Dobre Cars опубликовали очень необычные соревнования между Tesla Model X и Scorpion — британским лёгким разведывательным танком 1970-х годов.

На «Скорпионе» устанавливается рядный 6-цилиндровый 4,2-литровый карбюраторный двигатель жидкостного охлаждения, производства фирмы Jaguar, способный развивать максимальную мощность в 195 л.с. при 5000 об/мин. Танковый двигатель путём снижения степени сжатия дефорсирован с 260 л.с для работы на армейских сортах бензина.

Электрический кроссовер Tesla Model X развивает 772 л.с., являясь самым мощным и быстрым в своём классе, а также одним из самых быстрых кроссоверов на рынке. С места до 100 км/ч он разгоняется за 3,8 секунды, а с дополнительным пакетом Ludicrous Speed Upgrade — за 3,2 секунды.