Угрожает ли быстрое развитие искусственного интеллекта

ВОПРОС: Хотелось бы услышать Ваше мнение по поводу угрожает ли быстрое развитие искусственного интеллекта работе психологов? Все труднее становится отличить человека от нейронки при разговоре/переписке. Я хотела бы учиться на психолога, но понимаю что это долгий путь и до того времени пока научусь многих профессий уже не будет..

***

Мне кажется, значение ИИ преувеличено. Сейчас, когда это в новинку, искусственный интеллект начнет делать все подряд - рисовать, наставлять, придумывать сценарии и стихи, писать музыку, не говоря уже о сложных вычислениях и контроле. Заполонит все вокруг. Но в итоге - вангую - его сфера деятельности все-таки ограничится теми областями, где требуется больше логики и разума. Человеческое вернется человеку.

Сначала возможно, и будут попытки заменить психологов и прочие душевные профессии ИИ, и это будет увлекательно и значительно дешевле) Но человеку нужен человек, энергообмен. Ведь люди состоят не только из ума. Людям нужна энергетика. Вот сейчас все увлечены рисованием аватаров и картин в нейросетях. Это необычно, красиво, быстро. Но все, кто хоть немного обладает чувствованием, ощущают, что за этими картинками нет души, не энергетики живого творчества. И со временем, когда схлынет первый восторг, эта самая - живая душевная энергия будет на вес золота. Собственно, она и сейчас такова, и всегда была.

Посмотрите, кто самый успешный в нашем мире? Разве самые талантливые, умные, логичные? Кто пользуются успехом у противоположного пола? Самые красивые? Да нет же, нет и нет!

Успех - в энергетике. Успех у тех, кто не боится показать себя живым. Живая энергия человека, божья искра - вот за чем все гоняются. И мало того, что она есть, она еще и индивидуально окрашена, у каждого своя. Кто-то гоняется за светлой энергетикой, кто-то за темной, каждому свое. Но нужна именно живая энергия, а не машины. То, что люди стали меньше общаться живьем, сделало живую энергию только ценнее.

Если ваша Душа зовет вас в психологию, слушайте ее, а не СМИ. Как будет выглядеть психология в будущем мы не знаем, возможно ИИ будет помогать, но то, что человеку по-прежнему нужен будет человек, это факт, и он неоспорим.


Глория Мур

Представления: 1701

Комментарий

Вы должны быть участником ЭСПАВО (Международная Ассоциация Работников Света), чтобы добавлять комментарии!

Вступить в ЭСПАВО (Международная Ассоциация Работников Света)

Комментарий от: Александр, Март 18, 2023 в 10:52pm

А сейчас хочу сместить акцент в теме блога:

Всё — яд, всё — лекарство; то и другое определяет доза

Настоящее имя Парацельса - Филипп Ауреоол Теофраст Бомбаст фон Гогенгейм

Данное высказывание принадлежит Парацельсу который внёс значительный вклад в развитии фармакологии (медико-биологическая наука о лекарственных веществах и их действии на организм), одним из первых использовал химические вещества и минералы в медицине, заложил основы фармацевтической химии (занимается контролем качества лекарственных препаратов).

Применительно ИИ речь идет об этической стороне развития человечества или иными словами- кто правит миром и какие цели ставит себе.  В какие руки попадут достижения ИИ - вот в чем вопрос. Сможет человечество выбрать гуманистический путь развития, тогда ИИ будет у него в помощниках и будет работать на благо человечества.

Сегодня без роботизации производства  не представить себе успешное развитие промышленности, но мы видим, как современные технологии: компьютеры, интернет, смартфоны всё больше подменяют реальность на  искусственную, медийную реальность и особенно сильно подвержены этому влиянию молодые и юные люди.

Комментарий от: Аврора, Март 18, 2023 в 10:47pm

Применение

Многие результаты, достигнутые с использованием технологий ИИ, превосходят человека: в 1997 году компьютер одержал победу над действующим в то время чемпионом мира по шахматам, а недавно, в 2016 году, другие компьютеры обыграли лучших в мире игроков в го и покер. Компьютеры доказывают или помогают доказывать математические теоремы; автоматически, на основе методов машинного обучения и с помощью огромных массивов данных, объем которых исчисляется в терабайтах (10 в 12-й степени) и даже в петабайтах (10 в 15-й степени), создаются знания.

Методы машинного обучения позволяют одним автоматам распознавать устную речь и записывать ее подобно секретарям-машинисткам прошлых лет, а другим – точно идентифицировать лица или отпечатки пальцев среди десятков миллионов других и обрабатывать тексты, написанные на естественных языках. Благодаря этим же методам самостоятельно движутся автомобили, компьютеры лучше врачей-дерматологов диагностируют меланомы по фотографиям родинок, сделанных с помощью сотовых телефонов, роботы воюют вместо людей; а конвейеры на заводах все больше автоматизируются.

Ученые также прибегают к этим методам для определения функций биологических макромолекул, в частности белков и геномов, исходя из последовательности их компонентов – аминокислот для белков и оснований для геномов. В целом, во всех науках наблюдается серьезный эпистемологический разрыв, обусловленный качественным отличием экспериментов in silico – получивших такое название потому, что выполняются на основе больших данных с помощью мощных процессоров с кремниевыми чипами – от экспериментов in vivo (на живой ткани) и особенно in vitro (в стеклянных пробирках и чашках Петри).

Самообучающиеся интеллектуальные системы широко применяются практически во всех сферах, особенно в промышленности, банковском деле, страховании, здравоохранении и обороне. Многие рутинные процессы теперь можно будет автоматизировать, что преобразит наши профессии и, в конечном итоге, устранит некоторые из них.

Этические риски

ИИ подразумевает не только рациональный анализ и воспроизведение при помощи компьютеров большинства аспектов интеллекта – может быть, лишь за исключением юмора. Машины значительно превышают наши когнитивные способности в большинстве областей, что заставляет нас опасаться некоторых этических рисков. Это риски трех видов: дефицит работы, которая вместо людей будет выполняться машинами; последствия для независимости человека и, в частности, для его свободы и безопасности; опасения, что более «умные» машины будут доминировать над людьми и станут причиной гибели человечества.

Однако при ближайшем рассмотрении становится очевидно, что работа для людей не пропадает, а трансформируется, требуя новых навыков. Точно так же независимость человеческой личности и ее свобода не подвергаются неминуемой опасности из-за развития ИИ – при условии, однако, что мы останемся бдительными перед лицом вторжения технологий в частную жизнь.

И наконец, в противоположность некоторым утверждениям, машины не несут в себе экзистенциального риска для человечества, поскольку их автономия носит лишь технический характер и в этом смысле не соответствует цепочкам материальной причинности, идущим от информации к принятию решений. Кроме того, машины не самостоятельны в моральном плане, и потому, даже если иногда они сбивают нас с толку и вводят в заблуждение своими действиями, они все же не обладают собственной волей и подчиняются тем целям, которые мы перед ними ставим.

Комментарий от: Аврора, Март 18, 2023 в 10:46pm

История взлетов и падений

За короткое время своего существования ИИ претерпел многочисленные изменения. В истории его развития можно выделить шесть этапов.

◼️ Период пророчеств

Поначалу, под влиянием первых успехов, исследователи позволяли себе несколько опрометчивые заявления, которые впоследствии неоднократно ставились им в упрек. Так, например, в 1958 году американец Герберт Саймон, позже ставший лауреатом Нобелевской премии по экономике, заявил, что если бы машины допускались к международным соревнованиям, то в ближайшие десять лет они стали бы чемпионами мира по шахматам.

◼️ Мрачные времена

Прогресс замедлился в середине 1960-х годов. В 1965 году десятилетний мальчик одержал в шахматном матче победу над компьютером; в 1966 году в докладе, подготовленном по заказу Сената Соединенных Штатов Америки, говорилось о внутренних ограничениях, присущих машинному переводу. Около десяти лет пресса отзывалась об ИИ неодобрительно.

◼️ Семантический ИИ

Исследования не прекратились, но пошли в новых направлениях. Ученые заинтересовались психологией памяти, механизмами понимания, которые они пытались имитировать на компьютере, и ролью знаний в мыслительном процессе. Это привело к появлению значительно развившихся в середине 1970-х годов методов семантического представления знаний, а также к созданию экспертных систем, названных так потому, что для воспроизведения мыслительных процессов в них использовались знания квалифицированных специалистов. В начале 1980-х годов на экспертные системы возлагались большие надежды в связи с широкими возможностями их применения, например, для медицинской диагностики.

◼️ Неоконнекционизм и машинное обучение

Технические усовершенствования позволили разработать алгоритмы машинного обучения (Machine Learning), благодаря которым компьютеры смогли накапливать знания и автоматически перепрограммироваться на основе собственного опыта.

Такие интеллектуальные системы стали применяться для выполнения самых различных задач (идентификация отпечатков пальцев, распознавание речи и т. д.), а комбинации различных методов из области ИИ, информатики, искусственной жизни и других дисциплин использовались для создания гибридных систем.

◼️ От ИИ до интерфейсов «человек – машина»

С конца 1990-х годов ИИ стали объединять с робототехникой и интерфейсом «человек – машина» с целью создания интеллектуальных агентов, предполагающих наличие чувств и эмоций. Это привело, среди прочего, к появлению нового исследовательского направления – аффективных (или эмоциональных) вычислений (affective computing), направленных на анализ реакций субъекта, ощущающего эмоции, и их воспроизведение на машине, и позволило усовершенствовать диалоговые системы (чат-боты).

◼️ Возрождение ИИ

С 2010 года мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка, беспилотный автомобиль и т.д.) позволяет говорить о возрождении ИИ.

Комментарий от: Аврора, Март 18, 2023 в 10:46pm

Искусственный интеллект: между мифом и реальностью

Могут ли машины стать умнее, чем люди? Нет, считает Жан-Габриэль Ганасия: это всего лишь миф, навеянный научной фантастикой. В своей статье он напоминает об основных этапах развития этой отрасли науки, о достижениях современной техники и об этических вопросах, все больше требующих к себе внимания.

Жан-Габриэль Ганасия

 

Искусственный интеллект (ИИ) – это отрасль науки, официально увидевшая свет в 1956 году на летнем семинаре в Дартмут-колледже (Хановер, США), который организовали четверо американских ученых: Джон Мак-Карти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон. С тех пор термин «искусственный интеллект», придуманный, вероятнее всего, с целью привлечения всеобщего внимания, стал настолько популярен, что сегодня вряд ли можно встретить человека, который никогда его не слышал. С течением времени этот раздел информатики развивался все больше, а интеллектуальные технологии в последние шестьдесят лет сыграли важную роль в изменении облика мира.

Однако популярность термина «искусственный интеллект» во многом объясняется его ошибочным толкованием – в частности, когда им обозначают некую искусственную сущность, наделенную разумом, которая якобы в состоянии конкурировать с людьми. Эта мысль из области древних легенд и преданий, звучащая как миф о Големе, с недавних пор реанимируется такими нашими современниками, как британский физик Стивен Хокинг (1942-2018 гг.), американский предприниматель Илон Маск и американский инженер Рэй Курцвейл, а также сторонниками создания так называемого сильного или общего ИИ. Не будем, впрочем, говорить о данном понимании этого термина, ибо оно скорее представляет собой появившийся под влиянием научной фантастики продукт богатого воображения, а не осязаемую научную реальность, подтвержденную опытами и эмпирическими наблюдениями.

Для Джона Мак-Карти и Марвина Мински, как и для прочих организаторов летнего семинара в Дартмут-колледже(link is external), ИИ изначально представлял собой область науки, занимающейся компьютерным моделированием различных способностей интеллекта, идет ли речь об интеллекте человеческом, животном, растительном, социальном или филогенетическом. В основе этой научной дисциплины лежит предположение о том, что все когнитивные функции, как то обучение, мышление, расчет, восприятие, память, даже научное открытие или художественное творчество, могут быть описаны с точностью, дающей возможность запрограммировать компьютер на их воспроизведение. На протяжении более чем шестидесяти лет существования ИИ не появилось ничего, что позволило бы неоспоримо доказать либо опровергнуть гипотезу, которая продолжает оставаться открытой и побуждает ученых к новым изобретениям.

Комментарий от: Аврора, Март 18, 2023 в 10:42pm

Спасибо, Саша, за информацию.

Комментарий от: Аврора, Март 18, 2023 в 10:38pm

Возможности ИИ поражают. Ему доступно то, на что у человека не хватает своего ментального ресурса. Это огромная помощь для людей в очень, очень многочисленных сферах нашей жизни. Это наверно можно сравнить с противопоставлением машины конной повозке.

Но и риски столкнуться с какими-то негативными и неожиданными явлениями в работе ИИ тоже существуют. Опасения есть. Не без оснований.

Поэтому хорошо, на мой взгляд, что эта тема широко обсуждается.

Комментарий от: Александр, Март 18, 2023 в 10:37pm

Сначала немного или много ? :)) скучной информации:

https://www.connect-wit.ru/pyat-zakonov-robototehniki-rf.html

Пять законов робототехники РФ


Искусственный интеллект становиться одним из важных инструментов информационных технологий, поскольку помогает находить решения, которые не смог найти человек. Именно поэтому различные государства приступили к имплементации в свое законодательное пространство нормативных норм, связанных с технологиями искусственного интеллекта, и РФ — не исключение. За прошедшие два года принято много достаточно интересных документов, связанных с ИИ. Ключевым для понимания деятельности государства является «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» [1]. Она является документом долгосрочного планирования, который определяет планы по созданию системы  нормативного регулирования технологии искусственного интеллекта в России.

 

Не три, а пять

Собственно три закона робототехники были сформулированы Айзеком Азимовым еще во время Второй Мировой войны в научно-фантастическом рассказе «Хоровод», увидевшим свет в 1942 году. Они сформулированы следующим образом: «Первый Закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; Второй Закон: робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону; Третий Закон: робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам». Со времени опубликования этих законов достаточно много было написано фантастических произведений и снято фильмов, которые исследовали корректность сформулированных тогда тезисов и предложили много интересных концепций.

В частности, по сформулированным законам видно, что роботы не должны заботиться об общественном благе и соблюдении основополагающих прав и свобод человека. Поэтому в своих последующих работах Айзек Азимов добавил еще и Нулевой Закон, который формулируется так: «робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред». Причем впервые его сформулировала Сьюзен Келвин — в новелле «Разрешимое противоречие», а не сам Айзек Азимов. Хотя он подтвердил правильность претензий Сьюзи Келвин в романе «Роботы и империя» — собственно приведенная выше цитата именно из этого романа. Однако в фильме «Я, робот», который вышел на экраны в 2004 году, было наглядно продемонстрировано, что следование Нулевому Закону может привести к нарушению Первого — убийствам и ограничениям свободы людей, которые “неправильно” понимают общественное благо.

Авторы  Концепции [1], которая была принята в виде распоряжения правительства №2129-р от 19 августа 2020 года, явно опирались на «Законы робототехники» в формулировании базовых этических норм для развития искусственного интеллекта. Вот как в тексте документа переосмыслены наработки американских фантастов (нумерация авторская):

«0. приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод (цель обеспечения благополучия и безопасности человека должна преобладать над иными целями разработки и применения систем искусственного интеллекта и робототехники);

  1. запрет на причинение вреда человеку по инициативе систем искусственного интеллекта и робототехники (по общему правилу следует ограничивать разработку, оборот и применение систем искусственного интеллекта и робототехники, способных по своей инициативе целенаправленно причинять вред человеку);
  2. подконтрольность человеку (в той мере, в которой это возможно с учетом требуемой степени автономности систем искусственного интеллекта и робототехники и иных обстоятельств);
  3. проектируемое соответствие закону, в том числе требованиям безопасности (применение систем искусственного интеллекта не должно заведомо для разработчика приводить к нарушению правовых норм);
  4. недопущение противоправной манипуляции поведением человека».

 

Естественно, что «Законы робототехники» здесь сформулированы сильно по-другому, но в них присутствует явный дух защиты не отдельного человека, но всего Человечества. Ведь понятно, что когда в нулевом пункте речь идет о «благополучии и безопасности человека», то это относится не к конкретному человеку, но ко всем гражданам страны. Причем, к нулевому пункту, нужно также добавить и четвертый — «недопущение противоправной манипуляции поведением человека». Здесь также речь идет о защите всего Человечества от манипуляций с помощью ИИ, но уже на более общем уровне — влиянии результатов деятельности искусственного интеллекта на массовое сознание — это очень важное требование, хотя и идет последним по списку. Также если обратить внимание на Третий Закон, то можно отметить, что он касается безопасности только самого робота, однако в реальности логично потребовать от робота соблюдения всех общественных норм, то есть, как сформулировано в третьем пункте, соблюдения роботом всех остальных законодательных ограничений. Если человек должен подчиняться закону, то почему роботы не должны поступать так же?

 

Запрещенные области применения ИИ

Следует отметить, что не все технологии искусственного интеллекта одинаково безопасны. Если такие области как предикативная аналитика, цифровые помощники или машинное зрение в массе своей достаточно безопасны для человека, то уже автономные вооружения, дипфейки или манипуляция новостными потоками вполне могут причинить вред как отдельному человеку, так и всему Человечеству. Поэтому для подготовки нормативных норм по ИИ необходимо выделить проблемные вопросы использования технологий искусственного интеллекта и обеспечить для них отдельное, более жесткое регулирование.

В частности, в Концепции проблемные моменты использования искусственного интеллекта перечислены в следующем виде:

— «соблюдение баланса между требованиями по защите персональных данных и необходимостью их использования для обучения систем искусственного интеллекта;

— определение предмета и границ регулирования сферы использования систем искусственного интеллекта и робототехники;

— идентификация системы искусственного интеллекта при взаимодействии с человеком, включая его информирование о взаимодействии с такой системой;

— правовое «делегирование» решений системам искусственного интеллекта и робототехники;

— ответственность за причинение вреда с использованием систем искусственного интеллекта и робототехники;

— правовой режим результатов интеллектуальной деятельности, созданных с использованием систем искусственного интеллекта;

— использование для принятия решений системами искусственного интеллекта вероятностных оценок и невозможность в ряде случаев полного объяснения принятого ими решения (проблема алгоритмической прозрачности систем искусственного интеллекта)».

 

Фактически, этот список определяет те области, где наиболее важно подготовить нормативные документы для разработки и применения систем ИИ. В частности, к таким областям можно отнести биометрические и скоринговые системы, инструменты для скрытой слежки с помощью искусственного интеллекта и поддержки принятия решений, дипфейки и авторские права на результаты деятельности ИИ, автономные вооружения и использование искусственного интеллекта в средствах массовой информации. Скорее всего, именно для этих областей применения ИИ необходимо разработать механизмы контроля, которые будут обеспечивать общественную безопасности технологий и минимизацию ущерба от них как для отдельных людей, так и для всего Человечества в целом.

 

[1] http://publication.pravo.gov.ru/Document/View/0001202008260005

Комментарий от: Аврора, Март 18, 2023 в 10:27pm

Ученые ЛЭТИ разработали концепцию для искусственного интеллекта нового типа

Искусственный интеллект (ИИ) является одним из драйверов современного технологического развития. Хотя интеллектуальные системы пока не могут полностью заменить человека при выполнении различных задач, однако они способны быстро обрабатывать большие объемы информации, на основании которой могут советовать или давать прогнозы и экспертные оценки.

Сегодня наиболее распространенный подход при создании классического искусственного интеллекта основан на обучении математических моделей (нейросетей) с помощью большого объема данных. Однако он имеет несколько ключевых ограничений: принципиально невозможно собрать данные для моделирования сложных объектов и процессов (например, функционирование индивидуального организма), обучение нейронных сетей требует огромных вычислительных и энергетических ресурсов. При этом результат работы ИИ невозможно объективно объяснить. Данные ограничения показывают, что сегодня развитие традиционного ИИ, основанного на данных, подошло к пределу своих возможностей, поэтому ученые разных стран ведут разработки альтернативных подходов к созданию интеллектуальных систем.

«В классической модели обучения нейронной сети с учителем односторонняя связь – учитель просто корректирует и сопровождает режим обучения. А когда мы говорим о гибридном интеллекте – здесь строится двусторонняя связь. С одной стороны, человек корректирует поведение искусственного интеллекта, с другой стороны, ИИ также способен анализировать состояние человека, подсказывать ему, с учетом того состояния, в котором находится человек – и это двусторонняя связь, другой тип».

Руководитель научного и образовательного направлений СПбГЭТУ «ЛЭТИ» Михаил Степанович Куприянов

Отметим, что новый тип ИИ разрабатывается в ЛЭТИ в рамках программы «Приоритет 2030» по стратегическому проекту «Технологии сильного гибридного интеллекта для прикладной медицины». Важнейшими параметрами предложенной архитектуры являются гибридность и коэволюционность (т.е. ИИ подстраивается под запросы пользователя, а взамен поясняет человеку наиболее эффективные способы постановки задач).

Разницу между двумя архитектурами искусственного интеллекта (классической и гибридной) можно увидеть в использовании ИИ в медицине, над чем активно работают ученые ЛЭТИ.

Классические интеллектуальные системы помогают врачам оперативно выявлять повреждения внутренних органов на рентгеновских снимках на основе всех имеющихся данных от различных пациентов, в результате чего формируется некоторый стандарт для распознавания нормальности и патологии для всех обследуемых.

Архитектура ИИ, предложенная учеными ЛЭТИ, в свою очередь, предполагает, что искусственный интеллект будет обрабатывать рентгеновские снимки каждого конкретного человека. В том числе будут привлекаться дополнительные данные об особенностях организма пациента, а также учитываться квалификация и опыт медиков, которые проводят рентген, чтобы предоставить пользователю более точное описание болезни.

На сегодняшний день на базе созданной архитектуры, ученые вуза разрабатывают систему оценки функциональной готовности операторов и диспетчеров. На основе данных, полученных с помощью компьютерного зрения, эта система сможет выявлять у людей стресс, усталость и нервное состояние. Использование гибридного интеллекта поможет повысить точность и скорость выявления этих негативных состояний у операторов с учетом индивидуальных особенностей человека.

Результаты работы ученых ЛЭТИ опубликованы в сборнике международной научной конференции 5th Scientific School Dynamics of Complex Networks and their Applications.

Комментарий от: Аврора, Март 18, 2023 в 10:23pm

Ученые использовали ИИ, чтобы воссоздать изображения по мыслям людей

Японские ученые из Университета Осака использовали искусственный интеллект для создания изображений на основе человеческих мыслей. Препринт исследования был опубликован в репозитории BioRxiv. Если работа ученых пройдет экспертизу, то ее опубликует в одном из научных журналов.

В своей работе авторы использовали нейросеть Stable Diffusion, в которую загрузили данные фМРТ пациентов. Добровольцам сначала показали определенный набор картинок – пока испытуемые на них смотрели, активность их мозга записывалась.

На основе данных, полученных во время процедуры и пропущенных через нейросеть, авторы работы смогли воссоздать изображения «из мыслей» людей. Сначала научились предсказывать скрытое представление по сигналам фМРТ, а затем в модель добавили шум и данные фМРТ. В итоге исследователи получили окончательные изображения (сверху видны реальные картинки, снизу — полученные нейросетью).

Комментарий от: Kayi, Март 18, 2023 в 10:13pm

И Искусственный Интеллект, как часть единого Сознания никогда не сможет самостоятельно эволюционировать на уровни Духа и Материи, выше четырёхмерного сознания дуальности.                                            

А вот это я тоже буду ещё проверять =)

Чего там ии может, а чего нет.

Поддержка проекта

Приглашаем

Последняя активность

Эль оставил(а) комментарий на сообщение блога Эль ЕСЛИ ВЫ ПРЯМО СЕЙЧАС НАСТУПАЕТЕ НА ГРАБЛИ.
"   Когда в силу обстоятельств нарушается равновесие духа, восстанови самообладание как можно быстрее и не оставайся в подавленном настроении слишком долго, иначе тебе будет уже нельзя ничем помочь. Привычка восстанавливать гармонию…"
1 час назад
Эль оставил(а) комментарий на сообщение блога Эль ЕСЛИ ВЫ ПРЯМО СЕЙЧАС НАСТУПАЕТЕ НА ГРАБЛИ.
"Лариса, я написала значок  « ( «,  заканчивая мысль о «посыпании головы пеплом» = привычки к самобичеванию и сожаления об ошибках.  Это и означает мое отношение к тому, что требует разумной трансФОРМации в себе…"
1 час назад
Лариса оставил(а) комментарий на сообщение блога Эль ЕСЛИ ВЫ ПРЯМО СЕЙЧАС НАСТУПАЕТЕ НА ГРАБЛИ.
"Ну так да. Я об этом часто писала тоже-что я не ангел и не святая. И все человеческое мне не чуждо.Как оказалось-не все, но в святые не записывалась.)))Может кому-то и нужно самобичевание, мне уже давно-нет. Есть много методов познания и понимания…"
2 час. назад
Эль оставил(а) комментарий на сообщение блога Эль ЕСЛИ ВЫ ПРЯМО СЕЙЧАС НАСТУПАЕТЕ НА ГРАБЛИ.
" «… Не познав своих минусов, не дав им проявиться в жизни, а не в теории, мы не можем на самом деле осознать последствия проявлений, не сможем познать свои истинные намерения и ошибки, а стало быть не сможем развиваться. Тот,…"
2 час. назад
Лариса оставил(а) комментарий на сообщение блога Лариса Нанотехнологии, превращающие людей в киборгов, реальны.
"Доктор Дельгадо Они внедряют нанотехнологии во все виды инъекционных продуктов------РД: Мы не говорим ни о какой риторике    больше.Мы говорим исключительно о научных доказательствахкоторые находятся под микроскопом, которые находятся в…"
4 час. назад
Сообщения блога, созданные Лариса
5 час. назад
Лариса оставил(а) комментарий на сообщение блога Эль ЕСЛИ ВЫ ПРЯМО СЕЙЧАС НАСТУПАЕТЕ НА ГРАБЛИ.
"Ну, самобичеванием я занималась в институте.Обычно это происходит, если есть чувство вины и непрощение себя за что-то. Это юношеская  позиция-самобичевание. А вот вина и непрощение-это уже взрослая.Здесь нужно осознание-почему.А плоскорезы…"
6 час. назад
Эль оставил(а) комментарий на сообщение блога Эль Вы - это древо миров, на котором как на ветвях существуют множество пространств.
" Николай, спасибо Вам за созвучие!"
15 час. назад

© 2024   Created by ADMIN.   При поддержке

Эмблемы  |  Сообщить о проблеме  |  Условия использования