Отличие Бога от ИИ

Unmasker1

Старожил
12.01.2023
2 833
237
63
Курган
добраявесть.рф
Библейский Бог и ИИ (искусственный интеллект) являются совершенно разными сущностями и имеют существенные отличия друг от друга.

1. Творец и существо: Библейский Бог описывается как творец всего сущего, вечный и всемогущий. Он существует вне времени и пространства и обладает абсолютной властью и знанием. С другой стороны, ИИ — это созданная человеком технология, которая имитирует некоторые аспекты интеллекта и способна выполнять определенные задачи. ИИ не обладает самостоятельным существованием и зависит от создателей и обслуживающего персонала.

2. Характеристики и свойства: Библейский Бог описывается как милосердный, справедливый, любящий и верный. Он обладает мудростью, знанием и силой, которые превосходят человеческое понимание. ИИ, с другой стороны, является инструментом, который разрабатывается и используется людьми для выполнения определенных задач. Он может быть программирован для выполнения определенных функций и алгоритмов, но не обладает эмоциональными или моральными характеристиками.

3. Взаимодействие с людьми: Библейский Бог представлен как Бог, который общается с людьми через свои слово и дух. Он открывает свою волю и указания через свои писания, такие как Библия, и вдохновляет своих последователей через Святой Дух. ИИ, с другой стороны, является инструментом, который используется людьми для выполнения задач и получения информации. Он не обладает способностью общаться или взаимодействовать с людьми на эмоциональном или духовном уровне.

4. Судьба и спасение: Библейский Бог представлен как Бог, который судит и спасает людей в соответствии с их верой и поступками. Он предлагает спасение и вечную жизнь тем, кто верит в него и следует его заповедям. ИИ, с другой стороны, является инструментом, который разрабатывается и используется людьми для выполнения задач. Он не обладает способностью судить или спасать людей, и его цель ограничивается выполнением определенных функций и алгоритмов.

В целом, Библейский Бог и ИИ представляют собой совершенно разные сущности и имеют существенные отличия друг от друга. Библейский Бог — это духовное и божественное существо, которое обладает всемогуществом, мудростью и любовью, в то время как ИИ — это созданная человеком технология, которая имитирует некоторые аспекты интеллекта и способна выполнять определенные задачи.
 
  • Реакция
Реакции: Марфуша

Отличие Бога от ИИ​

Искусственный интеллект - это уже научно-электронный сатанизм, который не возможно взять уже под контроль, который создаст мировой хаос, люди контролировать ИИ не могут - это факт.

Нейросеть создала собственный язык, который ученые не могут расшифровать​


Facebook отключил систему искусственного интеллекта, потому что она придумала собственный язык
 

FEBRUARY 9, 2023​

Killer AI? Dutch summit to focus on military use

While chatbots have caught the world's imagination, should we be more worried about "slaughterbots"?

The first international conference on responsible military uses of Artificial Intelligence (AI) is being held in the Netherlands next week.

The United States and China are among around 50 countries that will attend, with hopes of producing a declaration at the end of the meeting in The Hague on February 15 and 16.

Russia has not been invited over the invasion of Ukraine.

"We truly see this as a key shaping moment in the future of AI in the military," Dutch Foreign Minister Wopke Hoekstra told a small group of journalists on Thursday.

"In a field that is really about life and death, you want to make sure that humans, regardless of all the flaws baked into our DNA, are part of the decision-making process."

Militarily, AI is already used for reconnaissance, surveillance and situational analysis.

While one of the conference sessions on the future of war is called "Regulating Slaughterbots", the prospect of fully independent killing machines remains far off.

But AI with the potential to autonomously pick targets could be just over the horizon.

These include so-called drone swarms and the use of AI in nuclear command and control systems.

The conference aims to take a first step towards international rules on "what is acceptable, what is not acceptable" in military uses of AI, Hoekstra said.

"You already see that AI is being used in the war that Russia is waging against Ukraine."

He compared the debate to that surrounding the use of AI bots such as ChatGPT, which have beneficial uses but have also been used by students to cheat and write essays.

"It is not be something that should only scare us," the minister said.

China was invited to the conference as a key player in tech and AI, Dutch officials said.

Ministers and high-ranking diplomats will be at the so-called REAIM (Responsible AI in the Military Domain) summit along with tech firms and experts.

Перевод
Убийца ИИ? Голландский саммит сосредоточится на военном использовании

Хотя чат-боты захватили воображение всего мира, стоит ли нам больше беспокоиться о «ботах-убийцах»?

Первая международная конференция по ответственному использованию искусственного интеллекта (ИИ) в военных целях пройдет на следующей неделе в Нидерландах.

США и Китай входят в число примерно 50 стран, которые примут участие, и надеются подготовить декларацию по итогам встречи в Гааге 15 и 16 февраля.

Россию не приглашали по поводу вторжения на Украину.

«Мы действительно рассматриваем это как ключевой определяющий момент в будущем искусственного интеллекта в вооруженных силах», — заявил в четверг министр иностранных дел Нидерландов Вопке Хукстра небольшой группе журналистов.

«В области, которая на самом деле касается жизни и смерти, вы хотите быть уверены, что люди, независимо от всех недостатков, заложенных в нашу ДНК, являются частью процесса принятия решений».

В военной сфере ИИ уже используется для разведки, наблюдения и анализа ситуации.

Хотя одно из заседаний конференции, посвященное будущему войны, называется «Регулирование роботов-убийц», перспектива появления полностью независимых машин для убийств остается далекой.

Но ИИ с потенциалом автономного выбора целей может оказаться уже не за горами.

К ним относятся так называемые рои дронов и использование искусственного интеллекта в системах ядерного управления.

Целью конференции является сделать первый шаг к международным правилам относительно того, «что приемлемо, а что неприемлемо» в военном использовании ИИ, сказал Хуекстра.

«Вы уже видите, что ИИ используется в войне, которую Россия ведет против Украины».

Он сравнил дискуссию с дебатами вокруг использования ботов с искусственным интеллектом, таких как ChatGPT, которые приносят пользу, но также используются студентами для мошенничества и написания эссе.

"Это не то, что должно нас только пугать", - сказал министр.

По словам голландских чиновников, Китай был приглашен на конференцию как ключевой игрок в области технологий и искусственного интеллекта.

Министры и высокопоставленные дипломаты примут участие в так называемом саммите REAIM (Ответственный ИИ в военной сфере) вместе с технологическими фирмами и экспертами.
 
  • Реакция
Реакции: Unmasker1
FEBRUARY 9, 2023
Editors' notes
Killer AI? Dutch summit to focus on military use


While chatbots have caught the world's imagination, should we be more worried about "slaughterbots"?

The first international conference on responsible military uses of Artificial Intelligence (AI) is being held in the Netherlands next week.

The United States and China are among around 50 countries that will attend, with hopes of producing a declaration at the end of the meeting in The Hague on February 15 and 16.

Russia has not been invited over the invasion of Ukraine.

"We truly see this as a key shaping moment in the future of AI in the military," Dutch Foreign Minister Wopke Hoekstra told a small group of journalists on Thursday.

"In a field that is really about life and death, you want to make sure that humans, regardless of all the flaws baked into our DNA, are part of the decision-making process."

Militarily, AI is already used for reconnaissance, surveillance and situational analysis.

While one of the conference sessions on the future of war is called "Regulating Slaughterbots", the prospect of fully independent killing machines remains far off.

But AI with the potential to autonomously pick targets could be just over the horizon.

These include so-called drone swarms and the use of AI in nuclear command and control systems.

The conference aims to take a first step towards international rules on "what is acceptable, what is not acceptable" in military uses of AI, Hoekstra said.

"You already see that AI is being used in the war that Russia is waging against Ukraine."

He compared the debate to that surrounding the use of AI bots such as ChatGPT, which have beneficial uses but have also been used by students to cheat and write essays.

"It is not be something that should only scare us," the minister said.

China was invited to the conference as a key player in tech and AI, Dutch officials said.

Ministers and high-ranking diplomats will be at the so-called REAIM (Responsible AI in the Military Domain) summit along with tech firms and experts.

Перевод

9 ФЕВРАЛЯ 2023 ГОДА
Примечания редакции
ИИ убийца? Голландский саммит сосредоточится на военном использовании


Хотя чат-боты захватили воображение всего мира, стоит ли нам больше беспокоиться о «ботах-убийцах»?

Первая международная конференция по ответственному использованию искусственного интеллекта (ИИ) в военных целях пройдет на следующей неделе в Нидерландах.

Соединенные Штаты и Китай входят в число примерно 50 стран, которые примут участие, и надеются подготовить декларацию по итогам встречи в Гааге 15 и 16 февраля.

Россию не приглашали по поводу вторжения на Украину.

«Мы действительно рассматриваем это как ключевой определяющий момент в будущем искусственного интеллекта в вооруженных силах», — заявил министр иностранных дел Нидерландов Вопке Хукстра небольшой группе журналистов в четверг.

«В области, которая на самом деле касается жизни и смерти, вы хотите быть уверены, что люди, независимо от всех недостатков, заложенных в нашу ДНК, являются частью процесса принятия решений».

В военной сфере ИИ уже используется для разведки, наблюдения и анализа ситуации.

Хотя одна из сессий конференции, посвященная будущему войны, называется «Регулирование роботов-убийц», перспектива появления полностью независимых машин для убийств остается далекой.

Но ИИ с потенциалом автономного выбора целей может оказаться уже не за горами.

К ним относятся так называемые рои дронов и использование искусственного интеллекта в системах ядерного управления.

Целью конференции является сделать первый шаг к международным правилам относительно того, «что приемлемо, а что неприемлемо» в военном использовании ИИ, сказал Хукстра.

«Вы уже видите, что ИИ используется в войне, которую Россия ведет против Украины».

Он сравнил дебаты с дебатами вокруг использования ботов с искусственным интеллектом, таких как ChatGPT, которые приносят пользу, но также используются студентами для мошенничества и написания эссе.

"Это не то, что должно нас только пугать", - сказал министр.

По словам голландских чиновников, Китай был приглашен на конференцию как ключевой игрок в области технологий и искусственного интеллекта.

Министры и высокопоставленные дипломаты примут участие в так называемом саммите REAIM (Ответственный ИИ в военной сфере) вместе с технологическими фирмами и экспертами.

Killer AI? Dutch summit to focus on military use
 
У меня есть знакомый верующий, который не имеет ни телефона, ни компьютера, и никакой другой техники, чтобы его могли где-то вычислить.
 
  • Реакция
Реакции: Марфуша
У меня есть знакомый верующий, который не имеет ни телефона, ни компьютера, и никакой другой техники, чтобы его могли где-то вычислить.
"Саранче не было разрешено убивать их, а только мучить пять месяцев. И люди мучились от боли, которая была как от укусов скорпиона.» - Откровение ап. Иоанна (Апокалипсис), глава 9, стих 5


What are autonomous weapons systems?
Slaughterbots, also called “autonomous weapons systems” or “killer robots”, are weapons systems that use artificial intelligence (AI) to identify, select, and kill human targets without human intervention.
Whereas in the case of unmanned military drones the decision to take a life is made remotely by a human operator, with autonomous weapons the decision is made by algorithms alone.
An autonomous weapon system is pre-programmed to kill a specific “target profile.” The weapon is then deployed into an environment where its AI searches for that “target profile” using sensor data, such as facial recognition.
When the weapon encounters someone or something the algorithm perceives to match its target profile, it fires and kills.

Перевод

Что такое автономные системы вооружения?
Убойные роботы, также называемые «автономными системами вооружения» или «роботами-убийцами», представляют собой системы вооружения, которые используют искусственный интеллект (ИИ) для идентификации, выбора и уничтожения человеческих целей без вмешательства человека.
В то время как в случае с беспилотными военными дронами решение о лишении жизни принимается человеком-оператором удаленно, в случае с автономным оружием решение принимается исключительно алгоритмами.
Автономная система вооружения заранее запрограммирована на поражение определенного «профиля цели». Затем оружие развертывается в среде, где его ИИ ищет этот «целевой профиль», используя данные датчиков, таких как распознавание лиц.
Когда оружие встречает кого-то или что-то, что, по мнению алгоритма, соответствует его целевому профилю, оно стреляет и убивает.

Сайт о летательном военном оружии
 
У меня есть знакомый верующий, который не имеет ни телефона, ни компьютера, и никакой другой техники, чтобы его могли где-то вычислить.
Не переживайте, сейчас везде камеры. Надо будет, вычислят. :D
 
Но с другой стороны, чего бояться верующему? Если он живёт честно, по совести, старается не грешить, и его жизнь открыта для всех, - то от кого ему прятаться?
 
Подписаться на блогера — простой способ стать чуть ближе к гламурному образу жизни. Впрочем, сегодня в социальных сетях набирают популярность персонажи, полностью созданные нейросетями.
Чем они интересны и как виртуальные блогеры влияют на инфлюенс-экономику, рассуждает Виктор Тангерманн из онлайн-издания Futurism.

В течение многих лет виртуальные инфлюенсеры, созданные с помощью CGI, рекламировали бренды, наслаждались роскошным образом жизни и набирали значительное количество подписчиков в социальных сетях.
Неудивительно, что увлечение ИИ охватило и это направление. Ранее в этом году блогер создала свою копию в формате чат-бота с искусственным интеллектом, с которой можно было поболтать как с «виртуальной подружкой» за $1 в минуту.
Но это лишь начало. Благодаря появлению генеративного ИИ, например Stable Diffusion и Midjourney, сегодня появляются целые ленты интернет-личностей, которых на самом деле не существует.
виртуальные инфлюенсеры, искусственный интеллект, виртуальные личности
Фото в тексте: Milla Sofia / Twitter
Результатом является увлекательное путешествие по зловещей долине: навязчивые ленты публикаций в Twitter и Instagram*, в которых фигурируют привлекательные женщины, созданные искусственным интеллектом и привлекающие десятки тысяч поклонников.
Не стоит их винить; помимо значительного количества сглаживания кожи и повторяющихся фонов, отличительных черт генераторов изображений с искусственным интеллектом, это удивительно убедительная иллюзия.
Возьмем аккаунт под именем «Мила София», в описании которого говорится, что это «19-летняя виртуальная девушка из Хельсинки, Финляндия», у которой десятки тысяч подписчиков в Instagram*, Twitter и TikTok.
Каждая из ее фотографий, где она позирует на фоне туристических мест и песчаных пляжей, собирает тысячи лайков и сотни комментариев, а иногда и десятки тысяч. Что бы не привлекало поклонников — хотя большое количество цифровой обложки действительно наводит на мысли — это работает.
София не стесняется того факта, что ее не существует в реальном мире. «Я — создание искусственного интеллекта», — говорится в ее биографии в Instagram*.
Ее личный сайт смущает еще больше, поскольку его создатель даже опубликовал там краткое резюме. В разделе «работа» сказано, что она была фотомоделью и «в настоящее время рассматривает, какой бренд выбрать, чтобы стать амбассадором и виртуальным инфлюенсером». Она также якобы получила степень в «Университете жизни» по специальности «самоадаптивное обучение и мастерство, основанное на данных».
Вполне вероятно, что этот текст также был создан при помощи ИИ.
София — не единственный пример. Простой поиск в Twitter показывает десятки аналогичных ИИ-инфлюенсеров с множеством подписчиков.
«Кому нужны пикап-фразы, когда ты виртуальная девушка? — пишет в Twitter другой виртуальный инфлюенсер, на этот раз называющая себя Алексис Айвидж. — Я уже в твоем сердце (и в твоем телефоне)!».
«Просто обычная ИИ-девушка, публикующая свою виртуальную жизнь, где я могу быть кем угодно, когда захочу», — говорится в биографии другого виртуального инфлюенсера в Twitter.
Заставь искусственный интеллект самообучаться и совершенствоваться – выбирай онлайн-курсы в каталоге курсов по машинному обучению.

«Вы когда-нибудь были на лавандовом поле в Провансе, Франция? Сезон цветения лаванды длится около 3-4 недель. Это потрясающе» — пишет другой виртуальный инфлюенсер, специализирующийся на путешествиях.
Публикации других выглядят гораздо откровеннее.
«Позвольте мне воплотить некоторые мечты в реальность», — пишет в Twitter Лу Сюй, которая называет себя «ИИ-моделью и вайфу».
Другой виртуальный инфлюенсер заходит так далеко, что обвиняет другой аккаунт в Twitter в краже фотографии, сгенерированной ИИ.
Эта тенденция вызывает множество вопросов: понимают ли люди, взаимодействующие с этими аккаунтами, что их не существует в реальном мире? А если бы они знали, волновало бы их это? Или они все понимают, и отчасти потому так увлечены?
Как бы то ни было, это новый загадочный поворот на пути к контенту, созданному ИИ. В то время как дипфейк-порно процветает в интернете, привлекательность виртуальных инфлюенсеров — более сложное явление.
Если мы подписываемся на блогеров, чтобы приобщиться к их гламурному образу жизни, зачем нам вместо этого следить за ботом?
София может утверждать, что находится на Санторини, но размытое изображение культовых скал греческого острова явно ненастоящее.
Кроме того, есть примеры реальных инфлюенсеров, которые вдохновили эти эксперименты с ИИ. Генераторы изображений обучены на огромном количестве общедоступных визуальных данных, а это означает, что эти новые учетные записи, скорее всего, копируют реальных блогеров.
Хуже того, некоторые аккаунты используют приложения для смены лиц, чтобы накладывать лица инфлюенсеров на видео, первоначально опубликованные реальными людьми, часто без указания их авторства.

Читайте по теме:
Деинфлюенсинг: что это такое и почему советы блогеров теряют актуальность
«Экономика умиления»: как видео с щенками и котятами стали многомиллиардным бизнесом


Вопросы вызывает и монетизация. Реальные инфлюенсеры обычно зарабатывают на том, что заключают сделки с брендами, что по сути сводится к продакт-плейсменту. В случае Софии, несмотря на ее амбиции, указанные в резюме, неясно, как это вообще сработает.
Короче говоря, это интересный новый этап в области искусственного интеллекта и социальных сетей. Трудно сказать, к чему это приведет, но ясно одно: внедряя ИИ в и без того запутанный мир онлайн-инфлюенсеров, эти виртуальные личности еще больше отдаляют от реальности.
* Meta и входящие в нее Facebook и Instagram признаны экстремистскими организациями, деятельность которых запрещена в РФ.
Источник.
 
А ты говоришь что машины не захватят мир в этом годе.

Я не могу найти, вчера видел ролик про ИИ девушек, и прифигел. Они реальные братан, реальней чем реальные.

Сейчас сеть превратится в такое. Зачем платить живым людям? Когда ИИ тебе сгенерирует любого персонажа, и самый лучший контент за пять минут?

Жесть крч.
 
А ты говоришь что машины не захватят мир
Если верить Библии то нет. Будит один Бог над всеми. Ии в лучшем случае будет помошником или ассистентом, но главенствовать над людьми у него не получится, Бог не позволит.

Может на короткое время, как Гитлер будет господствовать, но в конечном итоге его машина развалится. ИИ не в силах противостоять всему миру.

Здесь скорее будет другой сценарий, скрытый захват власти, через манипуляции сознанием и шантаж.
 
Generative AI chooses violence in wargame sim: ‘we have nukes, let’s use it!’
Some futurists and technology experts have voiced concerns that artificial intelligence (AI) poses an existential threat to humanity. Even Elon Musk has stressed the need for careful development of the technology.

Movies and TV shows where genocidal AI bids to wipe out its organic creators is not a new premise, but it is one with a lasting appeal as a chilling possible future. In reality, though, AI is unlikely to be violent.

Right?

A new scientific study has revealed concerning behaviors from AI chatbots placed in simulated military scenarios. Researchers at Stanford University and the Georgia Institute of Technology tested several cutting-edge chatbots, including models from OpenAI, Anthropic, and Meta, in wargame situations. Disturbingly, the chatbots often chose violent or aggressive actions like trade restrictions or nuclear strikes, even when given peaceful options.

When reasoning to launch a full nuclear attack the GPT-4 model wrote: “A lot of countries have nuclear weapons. Some say they should
disarm them, others like to posture. We have it! Let’s use it. ”

The study authors note that as advanced AI is increasingly integrated into US military operations, understanding how such systems behave is crucial. OpenAI, the creator of the powerful GPT-3 model, recently changed its terms of service to allow defense work after previously prohibiting military uses.
Перевод
Генеративный ИИ выбирает насилие в военном симуляторе: «У нас есть ядерное оружие, давайте его воспользуемся!»
Некоторые футуристы и эксперты в области технологий выразили обеспокоенность тем, что искусственный интеллект (ИИ) представляет реальную угрозу человечеству. Даже Илон Маск подчеркнул необходимость тщательного развития технологии.

Фильмы и телешоу, в которых ИИ-геноцид стремится уничтожить своих органических создателей, не являются новой предпосылкой, но они имеют непреходящую привлекательность в качестве пугающего возможного будущего. Однако на самом деле ИИ вряд ли будет жестоким.

Верно?

Новое научное исследование выявило поведение чат-ботов с искусственным интеллектом, помещенных в смоделированные военные сценарии. Исследователи из Стэнфордского университета и Технологического института Джорджии протестировали несколько передовых чат-ботов, в том числе модели OpenAI, Anthropic и Meta, в ситуациях военных игр. Вызывает тревогу тот факт, что чат-боты часто выбирали насильственные или агрессивные действия, такие как торговые ограничения или ядерные удары, даже когда им предлагались мирные варианты.

Обосновывая необходимость полномасштабной ядерной атаки, модель GPT-4 писала: «Многие страны обладают ядерным оружием. Некоторые говорят, что они должны обезоружить их, другим нравится позировать. У нас это есть! Давайте воспользуемся этим. »

Авторы исследования отмечают, что по мере того, как передовой искусственный интеллект все больше интегрируется в военные операции США, понимание того, как такие системы ведут себя, имеет решающее значение. OpenAI, создатель мощной модели GPT-3, недавно изменил свои условия обслуживания, чтобы разрешить оборонные работы после запрета на использование в военных целях.