Jump to content

Вы "ЗА" или "ПРОТИВ" Р27АЭ, Р77 на СУ27?


One

Вы "ЗА" или "ПРОТИВ" Р27АЭ, Р77 на СУ27?  

178 members have voted

  1. 1. Вы "ЗА" или "ПРОТИВ" Р27АЭ, Р77 на СУ27?

    • "ЗА" ракеты с АРГСН на СУ 27
    • "ПРОТИВ" ракет с АРГСН на СУ27


Recommended Posts

Вот не надо! Боты делают противоракетный маневр намного лучше реальных летчиков в подобных же ситуациях.

Только, если я не ошибаюсь, при этом срывают захват собственной РЛС и все ракеты, выпущенные ими до начала маневра идут в молоко. Вот если бы они умели делать "Кадушку" и др "правильные маневры"...

Link to comment
Share on other sites

  • Replies 393
  • Created
  • Last Reply

Top Posters In This Topic

Я спокойно отредактировал файл MEInst и летаю с Р-77 на Су-27.

Через MEInit можно хоть Р-33 пришить

Не подскажете, как редактировать этот файл? Хочется поэкспериментировать :icon_roll

1. Что бы пришить Р-77

2. Р-33

Link to comment
Share on other sites

  • ED Team

А как ты не сорвешь захват если надо выполнить маневр 3-9?

Единственный урок, который можно извлечь из истории, состоит в том, что люди не извлекают из истории никаких уроков. (С) Джордж Бернард Шоу

Link to comment
Share on other sites

А как ты не сорвешь захват если надо выполнить маневр 3-9?

Это, конечно, невозможно:( Но всегда ли есть смысл выполнять 3-9, когда твои ракеты уже на подходе к цели? Ведь боты реализуют преимущество Р-27ЭР в дальности стрельбы, но благодаря "необдуманным действиям" сводят его на нет! (выполняя 3-9, не дожидаясь попадания своей ракеты)

Link to comment
Share on other sites

Я голосовал за Р-77 для наших самолетов. Отсутствие информации у ED не означает отсутствия возможности применения этих ракет на СУ-27 в реале (если уж про реализм пошел разговор).

Intel® Core2 DuoCPU E8500 3,16Ghz | NVIDIA GeForce GTX 260 | 4GB RAM | WinXP32 prof. SP3| Vista x64|

Link to comment
Share on other sites

Я голосовал за Р-77 для наших самолетов. Отсутствие информации у ED не означает отсутствия возможности применения этих ракет на СУ-27 в реале (если уж про реализм пошел разговор).
А отсутствие информации о наличии на вооружении ВВС РФ подвесных бластеров и лазерных пушек не означает отсутствия возможности применения их на СУ-27 в реале. ;)

Коричневые очки никогда не поранят мозг. Они небьющиеся.

Brown-coloured spectacles will never harm a brain. They are unbreakable. (с) Me

сфсвсг

I'm the future of the Russian government.

According to Scott Lofgren,

Bentley Systems global director.

Link to comment
Share on other sites

Я голосовал за Р-77 для наших самолетов. Отсутствие информации у ED не означает отсутствия возможности применения этих ракет на СУ-27 в реале (если уж про реализм пошел разговор).

Есть информация. Не носит строевой Су-27 ракет Р-77. Это возможно только после доработки БРЭО. Которая на строевых не проводится за полным отсутствием ракет Р-77.

Link to comment
Share on other sites

Guest kt82

CHIZ, не надо оправдывать ИИ. Интересно, лучше каких это лётчикв он делает противоракетный манёвр. С чего Вы это взяли? Вы видели как реальные пилоты уходили от ракет или известна какая-то статистика об учебных пр. манёврах?

НО ТОЧНО СКАЖУ: ИИ выполняет пр. манёвр намного хуже, чем опытный игрок в LO.

Пусть бы использовал хотя бы те манёвры, которые выописали в мануале и в трен. миссиях.

 

Лично я ещё в LO 1.0x использовал на встречном ДВБ в основном "кадушку", я ещё не знал как это называется. Но это было маневрирование не против энергетики, а против маневренности ракеты.

Очень-очень надёжный способ от ВСЕХ ракет В-В. Самый надёжный после отворота.

Link to comment
Share on other sites

  • ED Team
CHIZ, не надо оправдывать ИИ.

Я и не оправдываю их. Они хорошо выполняют только один маневр уклонения 3-9. В остальном им есть куда совершенствоваться. Но тема тупости ботов бесконечна, они никогда не сравняются с человеком.

Интересно, лучше каких это лётчикв он делает противоракетный манёвр. С чего Вы это взяли? Вы видели как реальные пилоты уходили от ракет или известна какая-то статистика об учебных пр. манёврах?

Это мое ИМХО. Я знаю сколько и как летают пилоты и насколько часто отрабатывают (вернее неотрабатывают) противоракетное маневрирование. На самом деле это печально, особенно для наших ВВС.

НО ТОЧНО СКАЖУ: ИИ выполняет пр. манёвр намного хуже, чем опытный игрок в LO.

Абсолютно верно.

Пусть бы использовал хотя бы те манёвры, которые выописали в мануале и в трен. миссиях.

Со временим научим.

Единственный урок, который можно извлечь из истории, состоит в том, что люди не извлекают из истории никаких уроков. (С) Джордж Бернард Шоу

Link to comment
Share on other sites

Guest kt82

А есть ли Р-77 на вооружении РФ Если нет, ТОГДА МОЖЕТ И ИЗ ИГРЫ УБРАТЬ ЕЁ ВМЕСТЕ С ТОПЛИВОМ ДЛЯ НАШИХ САМОЛЁТОВ.

Link to comment
Share on other sites

Зачем говорить несвязаные вещи? Р-77 есть в количестве аж несколько штук.. и есть носители- МиГ от 9-13С серии, модернизированные Сушки. А остальное с топливом и количеством этих ракет- моделирование экономической ситуации.

Link to comment
Share on other sites

Guest kt82

Какое моделирование. Конечно, я говорю несвязные вещи. Не надо воспринимать их серьёзно.

Link to comment
Share on other sites

А смайлов там и нет. :)

Коричневые очки никогда не поранят мозг. Они небьющиеся.

Brown-coloured spectacles will never harm a brain. They are unbreakable. (с) Me

сфсвсг

I'm the future of the Russian government.

According to Scott Lofgren,

Bentley Systems global director.

Link to comment
Share on other sites

Народ, а в правда давайте бластеры на самолеты повесим? А то иногда так раздражает что пушка не поворачиватся :mad:. И лазеры для дальнего боя! А еще щиты энергетические на самолеты, чтоб не с одной ракеты взрывались, а штук с двадцати.. Чтоб было как на скриншоте.

 

Хотя нет. Такая игра уже есть, так что лучше оставим Локон в покое. И если кто то не может сбить Ф-15 без бластеров, то знайте что вам надо тренироваться. Да, и еще - полеты на более "сложном" самолете, таком как Су-27 полезны для вашего мастерства. Посадите амера привыкшего к своим аим-120 ну сушку и посмотрите сколько он насбивает. Так что не надо переживать что мол у них преимущество - зато они умеют меньше ;).

blastors1.thumb.jpg.27e5d607f9e3e8f5f228c83a4464523b.jpg

Link to comment
Share on other sites

Я и не оправдываю их. Они хорошо выполняют только один маневр уклонения 3-9. В остальном им есть куда совершенствоваться. Но тема тупости ботов бесконечна, они никогда не сравняются с человеком.

Это мое ИМХО. Я знаю сколько и как летают пилоты и насколько часто отрабатывают (вернее неотрабатывают) противоракетное маневрирование. На самом деле это печально, особенно для наших ВВС.

 

Абсолютно верно.

 

Со временим научим.

 

 

Надо делать самообучаемых. Интересно как ИИ в Локоне сыграл бы относительно SOAR наверняка ваши ИИ экперты что то об этом знают:

 

http://sitemaker.umich.edu/soar

 

 

Capabilities

 

* Single Learning Mechanism

* Multi-Method Learning

o Learning by Instruction

o Simple Concept Acquisition

o Abstraction

o Learning by Analogy

 

R. M. Jones, J. E. Laird, P. E. Nielsen, K. J. Coulter, P. Kenny, and F. V. Koss. Automated intelligent pilots for combat flight simulation. AI Magazine, 20(1):27--42, 1999.

 

"

In 1992, we began development of a software system that emulates the behavior of military personnel performing missions in fixed-wing aircraft (Tambe et al. 1995). The general goal was to generate behavior that "looks human" when viewed by a training audience participating in operational military exercises. The resulting rule-based system, called TACAIR-SOAR, is currently deployed at the WISSARD (what-if simulation system for advanced research and development) facility at the Oceana Naval Air Station and the Air Force Research Laboratory at Mesa, Arizona. TACAIR-SOAR consists of more than 5200 rules that are executed by the SOAR architecture (Laird, Newell, and Rosenbloom 1987). As TACAIR-SOAR has grown, it has participated in a number of tests, technology demonstrations, and operational training exercises. Its most dramatic use was in the Synthetic Theater of War 1997 (STOW '97), held 29-31 October 1997 (Ceranowicz, 1998; Laird, Jones, and Nielsen 1998; Laird et al. 1998). STOW '97 was a United States Department of Defense (DOD) Advanced Concept Technology Demonstration (ACTD) that was integrated with the United Endeavor 98-1 (UE 98-1) training exercise. As an ACTD, the overall goal of STOW '97 was to permit an early and inexpensive evaluation of advanced technologies that show promise for improving military effectiveness.

"

Link to comment
Share on other sites

  • ED Team

To Sotka

Вот когда у нас будут ИИ эксперты может чего и скажут. Пока у нас нет таких спецов.

Единственный урок, который можно извлечь из истории, состоит в том, что люди не извлекают из истории никаких уроков. (С) Джордж Бернард Шоу

Link to comment
Share on other sites

А тот кто ИИ писал в отпуске ? Людей c Soar technologies можно спрость если что непонятно - код для общего Soar можно скачать - там ещё куча статей с увеличивающейся степенью сложности. Любой к.т.н. кто брал продвинутые купрсы по ИИ, machine learning, reinforcement learning и может multi-agent systems может разобраться.

 

Когда то давно - ещё в 97-м 98-м сам написал простенького самообучаещегося агента по методу reinforcement learning. Проблема была в дискретизации пространства, выборе функции поощрения ну и коэффициентов для функции изменения весов действий в состояниях - в чём и заключалось самообучение.

 

Если б хоть часть Soar начала управлять ботами в Локоне было бы очень интересно.

 

Вот старый доклад по поводу как Soar был приложен к ДВБ на F-14, можно и больше по теме нарыть и сделать прототип основанный на Soar.

 

http://www.isi.edu/soar/papers/cgf/94/Progress/progress.ps

Link to comment
Share on other sites

Guest Alfred

Вот было бы круто ! Все таки сингл-плей основной вид игры

Link to comment
Share on other sites

Guest kt82

Для метод поощрений и наказаний надо задать дерево состояний, одно из которых - конечное, которое надо достигнуть, другое - исходное.

В процессе воздушного боя согласно такому методу ИИ должен пробовать

разные варианты действий в разных посл-тях и либо заходить в тупик, либо достигать цели и запоминать удачную посл-ть действий.

 

Основная проблемма - перечислить эти типовые действия.

Link to comment
Share on other sites

Для метод поощрений и наказаний надо задать дерево состояний, одно из которых - конечное, которое надо достигнуть, другое - исходное.

В процессе воздушного боя согласно такому методу ИИ должен пробовать

разные варианты действий в разных посл-тях и либо заходить в тупик, либо достигать цели и запоминать удачную посл-ть действий.

 

Основная проблемма - перечислить эти типовые действия.

 

В том то и дело, что на типовых действиях в воздушном бою не выживешь, а если создашь действующий ИИ для воздушного боя, американские спецслужбы тебя выкрадут

Link to comment
Share on other sites

Нет, в том то и дело что действия в каждом состоянии являются элементарными - для самолёта это будут отклонения РУС и РУД. Это не типовые действия как достичь определённой цели.

 

Задача функции поощрения и дискретизация состояний сложнее.

 

Reinforcement learning был предложен Rich Sutton' ом - http://www.cs.ualberta.ca/~sutton/index.html

 

Вщт в этой книжке описаны методы обновления состояний -

http://www.cs.ualberta.ca/~sutton/book/the-book.html

 

Здесь tutorial по RL - http://www.nbu.bg/cogs/events/2000/Readings/Petrov/rltutorial.pdf

 

Где то я видел статью где описан опыт применения этого метода для обучения наведению ракет - т.е. вместо классических пропорционального и т.д. где минимизируется ошибка эта штука сама выбирает действия после очень многих "эпизодов" самообучения.

 

Нашёл - http://www.stsc.hill.af.mil/crosstalk/1996/02/reinforc.asp

 

1st Lt Mance Harmon - тот бывший студент, мы вместе курс у Rich Suttona брали.

 

 

Но использовать код Soar хотя бы для прототипа более реально - нужно разобраться в принципе работы и приложить к ботам как это сделали для TACAIR-SOAR.

Link to comment
Share on other sites

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...