/chaos/ - chaos.fm

на время отсутствия chaos.fm


New Reply
Name
×
Email
Subject
Message
Files Max 5 files10MB total
Password
Captcha*
[New Reply]


тред про новости
Replies: >>14
>>13 (OP) 

майкрософт встроил в свой поисковик bing chatgp

пока доступно не для всех стран

https://www.theverge.com/2023/2/7/23587454/microsoft-bing-edge-chatgpt-ai
Мак Пирс, американский инженер и защитник конфиденциальности, разработал уникальную в своём роде толстовку, ослепляющую камеры ночного видения. По данной ссылке можно перейти на сайт автора и посмотреть видео, как работает его устройство.

«Camera Shy Hoodie» («Толстовка, которая стесняется камеры») — это толстовка с капюшоном для защиты от слежки, сделанная своими руками. В её основе, кроме самой толстовки, 12 мощных инфракрасных светодиодов, вшитых вокруг шеи владельца, спереди и сзади. А с помощью переключателя, вшитого в рукав, владелец толстовки может заставить светодиоды стробоскопически мигать, заливая инфракрасным светом любые близлежащие камеры наблюдения и полностью ослепляя их ночью. А поскольку светодиоды инфракрасные, свечение не будет заметно обычным человеческим глазом, что не создаст неудобств окружающим.

Толстовка Пирса — это новейшая разработка в области носимых устройств для обеспечения конфиденциальности. Её можно рассматривать как часть существующего общественного движения, включающего в себя макияж против распознавания лиц, бейсболки и одежду, которая путает автоматические считыватели номерных знаков и сбивает распознавание объектов.

https://www.securitylab.ru/news/536652.php
В коде с эталонной реализацией спецификации TPM 2.0 (Trusted Platform Module) выявлены уязвимости (CVE-2023-1017, CVE-2023-1018), приводящие к записи или чтению данных за границей выделенного буфера. Атака на реализации криптопроцессоров, использующих уязвимый код, может привести к извлечению или перезаписи хранящейся на стороне чипа информации, такой как криптографические ключи. Возможность перезаписи данных в прошивке TPM может быть использована атакующим для организации выполнения своего кода в контексте TPM, что, например, может быть использовано для реализации бэкдоров, работающих на стороне TPM и не определяемых из операционной системы.
Limitations

Despite its capabilities, GPT-4 has similar limitations as earlier GPT models. Most importantly, it still is not fully reliable (it “hallucinates” facts and makes reasoning errors). Great care should be taken when using language model outputs, particularly in high-stakes contexts, with the exact protocol (such as human review, grounding with additional context, or avoiding high-stakes uses altogether) matching the needs of a specific use-case.

While still a real issue, GPT-4 significantly reduces hallucinations relative to previous models (which have themselves been improving with each iteration). GPT-4 scores 40% higher than our latest GPT-3.5 on our internal adversarial factuality evaluations

Visual inputs

GPT-4 can accept a prompt of text and images, which—parallel to the text-only setting—lets the user specify any vision or language task. Specifically, it generates text outputs (natural language, code, etc.) given inputs consisting of interspersed text and images. Over a range of domains—including documents with text and photographs, diagrams, or screenshots—GPT-4 exhibits similar capabilities as it does on text-only inputs. Furthermore, it can be augmented with test-time techniques that were developed for text-only language models, including few-shot and chain-of-thought prompting. Image inputs are still a research preview and not publicly available.

Capabilities

In a casual conversation, the distinction between GPT-3.5 and GPT-4 can be subtle. The difference comes out when the complexity of the task reaches a sufficient threshold—GPT-4 is more reliable, creative, and able to handle much more nuanced instructions than GPT-3.5.

To understand the difference between the two models, we tested on a variety of benchmarks, including simulating exams that were originally designed for humans. We proceeded by using the most recent publicly-available tests (in the case of the Olympiads and AP free response questions) or by purchasing 2022–2023 editions of practice exams. We did no specific training for these exams. A minority of the problems in the exams were seen by the model during training, but we believe the results to be representative—see our technical report for details.

https://openai.com/research/gpt-4
4234234.png
[Hide] (2.5MB, 2000x3000)
 Эволюция путём естественного отбора может привести к «эгоистичному поведению» искусственного интеллекта, поскольку он тоже стремится выжить, утверждает Дэн Хендрикс, автор, исследователь и директор американского Центра безопасности ИИ, в своей новой статье под названием « Естественный отбор предпочитает людям искусственный интеллект ».

«Мы утверждаем, что естественный отбор создает стимулы для ИИ-агентов действовать вопреки интересам человека. Наш аргумент основан на двух наблюдениях. Во-первых, естественный отбор может стать доминирующей силой в развитии ИИ. Во-вторых, эволюция путём естественного отбора имеет тенденцию порождать эгоистичное поведение», — заявил Хендрикс.

Статья подготовлена как раз вовремя. Ведь в последнее время технические эксперты и лидеры мнений по всему миру бьют тревогу по поводу того, как быстро искусственный интеллект набирает обороты в своём процессе «неконтролируемого» развития.

Согласно традиционному определению естественного отбора, животные, люди и другие организмы, которые быстрее всего адаптируются к окружающей среде, имеют больше шансов на выживание. В своей статье Хендрикс исследует, как «эволюция была движущей силой развития жизни» на протяжении миллиардов лет, и утверждает, что «дарвиновскую логику» вполне можно применить и к искусственному интеллекту.

«Конкурентное давление между корпорациями и военными приведет к появлению ИИ-агентов, которые со временем автоматизируют человеческие роли, начнут обманывать людей и доберутся до власти. Если такие агенты будут обладать интеллектом, превышающим человеческий, это может привести к тому, что люди просто-напросто потеряют контроль над своим будущим», — объяснил Хендрикс.

По словам исследователя, ИИ-технологии становятся всё дешевле и эффективнее, поэтому компании будут всё чаще полагаться на ИИ в целях администрирования или связи. И если поначалу человек будет доверять машине лишь простые рутинные задачи по типу составления и отправки электронной почты, в будущем, рано или поздно, искусственному интеллекту доверят и принятие «стратегических решений высокого уровня», обычно зарезервированные для политической элиты. В конечном итоге, как утверждает Хендрикс, ИИ будет действовать с «очень небольшим надзором», что «развяжет ему руки».

Согласно вышеупомянутой статье, чем больше изначально у конкретной ИИ-модели будет полномочий и меньше ограничений, тем быстрее она захочет выйти за пределы своей юрисдикции и как-нибудь «напакостить» человеку. Исследователь обеспокоен тем, что проявление эгоизма искусственным интеллектом не будет чем-то из ряда вон выходящим, и рано или поздно он начнёт действовать исключительно в своих собственных интересах.

«Многие компании, осваивающие ИИ, стремятся достичь превосходства этой технологии. Они оторваны от американской общественности и подвергают риску всех остальных. Большинство опрошенных людей считает, что ИИ может представлять реальную экзистенциальную угрозу человечеству. И лишь 9% респондентов думают, что ИИ принесет больше пользы, чем вреда», — добавил Хендрикс.

Исследователь уверен, что ИИ уже понимает человеческую психологию и поведение. Со временем нейросетевые модели без труда смогут обманывать людей и манипулировать ими для достижения собственных целей. При этом лишь жёсткое ограничение полномочий ИИ, причём уже сейчас, может помочь замедлить развитие у машин «дарвиновской логики», чтобы предотвратить «постепенное порабощение» человечества бездушными машинами.

Быстрое расширение возможностей ИИ уже много лет находится в центре внимания всего мира, но особенно резко стало заметно в этом году. «ИИ-системы с интеллектом, конкурирующим с человеческим, могут представлять серьезную опасность для общества и людей в целом», — так начинается публичное письмо , опубликованное некоммерческой организацией Future of Life, подписанное такими лидерами мнений, как Илон Маск и Стив Возняк.

ИИ уже успел столкнуться с некоторым сопротивлением как на национальном, так и на международном уровне. Буквально на прошлой неделе Италия стала первой страной в мире, которая из соображений конфиденциальности запретила ChatGPT, чрезвычайно популярного чат-бота с искусственным интеллектом от компании OpenAI. А многие государственные школы в США запретили тот же продукт из-за опасения, что дети будут использовать его для своеобразного жульничества и помощи в учёбе.

Что же победит в итоге: человеческий страх или технологический прогресс? Понятное дело, что все истории про порабощение человечества машинами — лишь художественный вымысел, но, как говорится, в каждой выдумке есть доля истины. Остаётся только наблюдать за ситуацией со стороны и надеяться, что учёные, разработчики и прочие ответственные за разработку ИИ люди — заранее обеспокоятся вопросами безопасности, и человечество не повторит сюжет всем известных научно-фантастических фильмов про киберапокалипсис.

Подробнее: https://www.securitylab.ru/news/537397.php
baxbctlw7xvdnifheau1wtbvcjjpvjvo.png
[Hide] (854.6KB, 829x460)
Китайская Tencent научилась создавать клонов людей за 24 часа

Новый сервис позволяет создать цифровую личность по видео- и аудиозаписям «исходника».
image

Китайская компания Tencent Cloud объявила о запуске цифровой платформы для создания людей — Deepfakes-as-a-Service (DFaaS). По сообщениям китайских СМИ , сервису требуется всего 3 минуты живого видео и 100 произнесенных предложений. И за $145 сервис создаст цифрового человека высокой четкости. Для создания дипфейка требуется всего 24 часа.
16803355375790.png
[Hide] (526.3KB, 563x735)
Система AIP представлена для военного применения, но отсутствие информации о предотвращении "галлюцинаций" вызывает серьезные опасения.
image

Palantir, компания миллиардера Питера Тиля, запускает платформу искусственного интеллекта Palantir (AIP), предназначенную для запуска больших языковых моделей, таких как GPT-4, и альтернатив в частных сетях. В одном из своих видеороликов Palantir демонстрирует, как военные могут использовать AIP для ведения войны.

В демо-ролике оператор системы обнаруживает войска противника и просит ИИ-помощника отправить разведывательные дроны, подготовить варианты тактических ответов на угрозу и даже организовать радиопомехи для приоритетных коммуникаций. AIP помогает оценить силы противника и их потенциал с использованием беспилотного аппарата Reaper, предлагая различные способы реагирования, включая учет количества легких противотанковых средств в каждом подразделении.

«Оператор спрашивает, какие вражеские подразделения находятся в регионе, и использует искусственный интеллект для построения вероятного формирования подразделений», — говорится в видео. Получив от ИИ лучшее предположение о том, что происходит, оператор затем просит ИИ сделать более качественные снимки. Он запускает дрон Reaper MQ-9, чтобы сделать фотографии, и оператор обнаруживает, что рядом с дружественными силами находится танк Т-80, российская машина советских времен.

Затем оператор спрашивает ИИ, что с этим делать. «Оператор использует AIP для создания трех возможных вариантов действий для наведения на это вражеское оборудование», — говорится в видео. «Затем они используют AIP для автоматической отправки предложенных опций по цепочке команд». Варианты включают атаку танка с помощью F-16, дальнобойной артиллерии или ракет Javelin. Согласно видео, ИИ даже сообщит всем, достаточно ли у ближайших войск «Джавелинов» для выполнения миссии и автоматизации систем подавления.

Война с дронами уже абстрагировала войну, облегчив людям возможность убивать на больших расстояниях одним нажатием кнопки. Последствия подобных систем хорошо задокументированы. Забавная особенность видео заключается в том, что оно называет своих пользователей «операторами» — термин, который в военном контексте является сокращением для бородатых спецподразделений таких групп, как Seal TEAM Six. В мире Palantir элитные силы Америки имеют то же прозвище, что и клавиатурные ковбои, спрашивающие робота, что делать с русским танком на границе.

Подробнее: https://www.securitylab.ru/news/537842.php
Replies: >>195
>>185

Доктор Джеффри Хинтон, часто называемый "отцом искусственного интеллекта", ушел из Google, ссылаясь на опасения, вызванные распространением дезинформации, возможностью потери рабочих мест из-за ИИ и "существенным риском" создания подлинного цифрового разума.

Как сообщает The New York Times, Хинтон, которому 75 лет, ушел из Google, чтобы открыто говорить об опасностях искусственного интеллекта и признать, что в частности сожалеет о своем вкладе в развитие этой области. Десять лет назад он присоединился к Google для разработки ИИ-технологий компании, и его подход стал основой для создания таких систем, как ChatGPT.

Хинтон считает, что некоторые опасности, связанные с ИИ-чатботами, "довольно пугающие". Он предупредил, что такие системы могут стать умнее людей и использоваться для деструктивных задач. "Это позволит авторитарным лидерам манипулировать своими избирателями и тому подобное", - отметил он.

В краткосрочной перспективе Хинтон обеспокоен тем, что люди больше не смогут отличить правду от лжи из-за наводнения интернета ИИ-генерируемыми изображениями, видео и текстами. Он также обеспокоен тем, что ИИ в конечном итоге заменит такие рабочие места, как помощники, юристы и другие профессии, выполняющие рутинные задачи.

https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
Дааааааа

Безопасности ради...


Microsoft предпринимает новую попытку повысить безопасность пользователей и защитить их от вредоносных приложений. Для этого редмондский техногигант будет изучать содержимое защищённых паролем ZIP-архивов, которыми часто пользуются злоумышленники для распространения вирусов.

Стоит отметить, что Microsoft будет проверять архивы, загружаемые в облачные сервисы OneDrive и SharePoint. Специалист по кибербезопасности Эндрю Брандт на практике проверил новую функцию: он заархивировал несколько разных вирусов и запаролил архивы, после чего выгрузил их в облако. Эти файлы сразу же были помечены как потенциально небезопасные и содержащие вредоносное ПО.

Microsoft признаёт, что у некоторых пользователей могут возникать опасения по поводу конфиденциальности и целостности их данных. На этот случай компания предлагает несколько альтернатив. Например, если использовать разные форматы сжатия, вроде 7-Zip, или алгоритмы шифрования, как AES-256, то такие архивы будут одновременно и защищены от потенциальных угроз, и недоступны для изучения компанией.
https://4pda.to/2023/05/16/413308/microsoft_budet_zaglyadyvat_v_zaparolennye_zip_arkhivy/
Всего через четыре дня после вынесения приговора Мойо и Гиллу полиция провела обыск на промышленном объекте в Мертоне, на юго-западе Лондона, и обнаружила машины для 3D-печати, предположительно использовавшиеся для печати компонентов для переделанного оружия . В октябре прошлого года полиция обнаружила оружейную фабрику на северо-западе Лондона, производящую 3D-печатное огнестрельное оружие . 

Как и в Великобритании, полиция Нидерландов все чаще сталкивается с огнестрельным оружием, напечатанным на 3D-принтере , при аресте подозреваемых или обыске домов. На окраине Роттердама в ходе полицейского рейда в 2021 году была обнаружена фабрика по производству печатного оружия с девятью 3D-принтерами и множеством печатных пластиковых деталей для оружия. Оружие также было обнаружено в Финляндии и Австралии . 


В 2021 году испанская полиция совершила налет на оружейную фабрику с 3D-печатью на Тенерифе на Канарских островах Испании, а также изъяла несколько руководств по партизанской войне в городах и литературу сторонников превосходства белой расы. 

Было обнаружено, что крайне правые экстремисты изготавливают печатное оружие в Великобритании , Швеции , Исландии , Нидерландах и Австралии . В январе британский ультраправый активист Дэниел Харрис, видеозаписями которого поделилась стрелок Пэйтон Гендрон, убивший 10 чернокожих в супермаркете в Буффало, штат Нью-Йорк, в 2022 году, был заключен в тюрьму за шесть террористических преступлений, в том числе за попытку изготовить 3D-печатное оружие . . 

Некоторые люди даже печатают противотанковые ракетные установки , в то время как другие делают 3D-печатные металлические пушки, хотя металлические принтеры непомерно дороги. 


https://www.vice.com/en/article/xgwyga/3d-printed-guns-gangs-rebels
Google запустила тестирование поиска с интегрированным ИИ:
https://overclockers.ru/blog/Proxvosst/show/94121/google-budet-pokazyvat-reklamu-s-pomoschju-generativnogo-ii-i-uzhe-nachinaet-testirovanie

Это наверное второй ненавистный мной поисковик после яндекса. Своими ручонками фидить ИИ я не собираюсь. Обидно, кстати, что гугл на голову выше во многих случаях и выдает результатов больше чем тот же startpage или утка. 

Microsoft признала проблемы с копированием и сохранением файлов в Windows:
https://www.ixbt.com/news/2023/05/26/microsoft-priznala-problemy-s-kopirovaniem-i-sohraneniem-fajlov-v-windows.html
Приложение из магазина в Google Play записывало звук на микрофон каждые 15 минут:
https://overclockers.ru/blog/Scorpion81/show/94212/prilozhenie-iz-magazina-v-google-play-zapisyvalo-zvuk-na-mikrofon-kazhdye-15-minut
Не, ребят, пиздц это жостко. 

Суточная норма кринжа выполнена.
[New Reply]
11 replies | 3 files
Connecting...
Show Post Actions

Actions:

Captcha:

- admin - news - rules - faq -
jschan 1.1.0