BehaviorDesigner 实现智能机器人


BehaviorDesigner 实现NPC 智能机器人

Created by miccall (转载请注明出处 miccall.tech)

实现物体跟随摄像机视野运动

1. VR实现机器人导航

  • 项目里要求一个机器人跟随在角色旁边,一直飞着,就像一个精灵一样,总在主角的身边,移动,转头,都要移动到合适的位置 。还得让他面向主角,今天就来实现这个样例 。

2. 问题思考

 - 1. 物体移动到某个给定的位置(target)
 - 2. 物体转动到面向摄像机 
 - 3. 出现在相机的视野当中 
 - 4. 自定义物体在摄影机的Screen中的位置 

3.实现以及方法

  • 移动的话 ,本来可以用动画来实现 ,因为动画还没有做好,我就用一个cube当作那个机器人做样例了 。
  • 首先有个cube之后 ,给他放一个移动的脚本。这里我给他命名为PlayerTank 。
  • 我们的目的就是让他运动到某个target ,所以我们得给他指定一个followTransform 。 同时还有他的移动速度和转动速度 。
  • 为了使他移动不是很突兀,我的思路是他先转动到面向follow物体,然后在直线移动到给物体 。所以算法很快写好了
        void LookTransform(Transform Mtransform)
            {
                Vector3 tarPos = Mtransform.position;
                Vector3 dirRot = tarPos - transform.position;
                Quaternion tarRot = Quaternion.LookRotation(dirRot);
                transform.rotation = Quaternion.Slerp(transform.rotation, tarRot, rotSpeed * Time.deltaTime);
            }
  • 简单解释一下,就是先确定物体的位置,然后求出指向他的方向,并用插值的方法,
    让物体转动到面向指定的物体 。
    好了,既然有了朝向的运动方向,那么走到这方向,就很简单了。
          transform.Translate(new Vector3(0, 0, movementSpeed * Time.deltaTime));
  • 那么什么时候停止运动呢 ,我想了一下,决定用位置的差来判断
    就是
        Vector3.Distance(transform.position, followTransform.position);
  • 好了,既然停止的方法也有了,最后要解决的问题就是朝向摄像机了。
    突然一想,这是问题么,对,这不是问题 ,哈哈,刚刚写的那个算法,给一个摄像机就解决了嘛 。
    然后给出具体的判断逻辑 。
        //该物体 接近要  到达的目标   指定位置后就停止  
        if (Vector3.Distance(transform.position, followTransform.position) < 3f)
        {
            //当物体道到位置时 让物体面 向摄像机 
            LookTransform(Camre);
            return;
        }
        else
        {
            //让物体转向 将要运动 的方向 
            LookTransform(followTransform);
            transform.Translate(new Vector3(0, 0, movementSpeed * Time.deltaTime));
        }
  • 这样就解决了物体移动到target了,下一步就是固定target的位置,让他在摄像机的固定位置了 。
    新建一个脚本文件CameraView,挂在摄像机上。为了方便调试,我又用了FPS脚本,
    就是第一人称视角跟随鼠标转动,就跟cs里面的玩法一样,(百度一大推代码)。
    第二个调试算法是一个国外大牛写的 ,他可以给定一个距离,画出摄像机的视野范围

这里写图片描述

  • 这里我画了两个边 ,一个是距离摄像机8.5米 用黄色表示,距离摄像机12米的用红色表示。
    应为篇幅问题和详略问题,这里不多解释这个算法,有兴趣的可以去研究一下,这里我们引用一下就行了。
    
      Vector3[] GetCorners(float distance)
          {
        Vector3[] corners = new Vector3[4];

        float halfFOV = (theCamera.fieldOfView * 0.5f) * Mathf.Deg2Rad;
        float aspect = theCamera.aspect;

        float height = distance * Mathf.Tan(halfFOV);
        float width = height * aspect;

        // UpperLeft
        corners[0] = tx.position - (tx.right * width);
        corners[0] += tx.up * height;
        corners[0] += tx.forward * distance;

        // UpperRight
        corners[1] = tx.position + (tx.right * width);
        corners[1] += tx.up * height;
        corners[1] += tx.forward * distance;

        // LowerLeft
        corners[2] = tx.position - (tx.right * width);
        corners[2] -= tx.up * height;
        corners[2] += tx.forward * distance;

        // LowerRight
        corners[3] = tx.position + (tx.right * width);
        corners[3] -= tx.up * height;
        corners[3] += tx.forward * distance;

        return corners;
    }
      void FindUpperCorners()
      {
        Vector3[] corners = GetCorners(upperDistance);
        // for debugging
        Debug.DrawLine(corners[0], corners[1], Color.yellow); // UpperLeft -> UpperRight
        Debug.DrawLine(corners[1], corners[3], Color.yellow); // UpperRight -> LowerRight
        Debug.DrawLine(corners[3], corners[2], Color.yellow); // LowerRight -> LowerLeft
        Debug.DrawLine(corners[2], corners[0], Color.yellow); // LowerLeft -> UpperLeft
}
  • debug的时候,直接调用FindUpperCorners()就可以了 。
    刚开始的时候 ,我就用的这个调试 ,给出一个位置,然后计算他的偏移量,调试了很久,没有一个良好的效果,我决定换个思路了 ,为了普遍大众 ,我还是把这个调试方法贴出来了,有需要的可以试试 。
    第二个我就去翻api了 ,因为我貌似记得有个屏幕坐标和世界坐标转化的什么鬼方法来着。果然不出我所料,这个方法的确是相当的好用的呀 。
    试了一下官方给的调试方法,画了一个点出来 。
        void OnDrawGizmosSelected()
        {
            Vector3 p = theCamera.ScreenToWorldPoint(new Vector3(100, 200, 8));
            Gizmos.color = Color.blue;
            //target.position = p;
            Gizmos.DrawSphere(p, 1F);
        }
  • 好了,就连我最后决定用的位置也标明了。
    然后,我就写了一个很简单的方法来达到目的。
          void maketarget()
          {
              Vector3 p = theCamera.ScreenToWorldPoint(new Vector3(RH, RV, upperDistance));
              target.position = p;
          }
  • 写完我都吓了一跳 ,竟然如此简单。还是简单解释一下 ,RH 是水平偏移量,RV是垂直偏移量,upperDistance是距离摄像机的一个平面位置 。
    接下来就是运行看效果了 。
    

4.中途出现的小BUG

-
莫名其妙的做圆周运动 ,然后我分析了线速度,角速度和半径的关系 ,
然后总结出一个基本的规律,他应该是当运动到某个特定的位置 ,正好满足了
圆周运动的关系,然后我们调整movementSpeed 和rotSpeed 的值,让他么尽可能
的和Distance消除乘积关系,这样出现的几率就微乎其微了 。
感想 – 其实unity和现实物理,理论物理 还是有很大的不同。

BehaviorDesigner 介绍以及使用方法

  • Behavior Designer 是一个行为树插件 他提供了可视化编辑器 和强大的 API 可以轻松的创建 tasks(任务)通过决策树的方式判断行为,耦合度更高,更加方便的打造AI系统 。

  • 本教程不是入门教程 ,而是通过一个引导来实现我们的主题 。

    1. Sequence 队列节点
      – 表示顺序执行的节点 此节点下属所有节点依次执行直到返回false
    1. Selector 选择节点
      – 表示在此节点下选择一个执行 此节点下属所有节点依次执行直到返回true
  • 我们暂且就用这两个 想要了解更多的 ,请参考别的教程

基本任务

  • 判断是否到达目的地
  • 移动到目的地(包含起飞和停止动画)
  • 判断是否面向摄像机
  • 判断是否执相应的动画( 原地浮动 )
  • 判断是否要面向UI物体
  • 面向UI之后 如果操作 执行相应的动画(点头 摇头 摊手)

1.判断是否到达目的地

  • 这个方法在上面的教程已经介绍了解决思路以及代码实现 简单重新陈述一下,首先在摄像机上挂一个脚本 这个脚本用来测量摄像机的范围,在范围内画一个点,让一个target(transform)覆盖这个点 。
  • VR中摄像机可以根据头盔的传感器,来旋转第一人称视角 这个target就固定在视角的一个地方随意移动 。
  • 那么,机器人的z轴 (forward) 就一直面向这个target。然后使用translate移动到这个target附近。
  • 我们要判断的就是这个target和机器人的distance
  • 我们自己写一个脚本来实现这个小功能(Task)
        using UnityEngine;

        namespace BehaviorDesigner.Runtime.Tasks.Basic.UnityVector3
        {
            [TaskCategory("Basic/Vector3")]
            [TaskDescription("Returns the distance between two Vector3s.")]

            public class dis_tance : Action
            {

                [Tooltip("target Vector3")]
                public SharedVector3 firstVector3;
                [Tooltip("The distance")]
                [RequiredField]
                public SharedFloat storeResult;
                public SharedGameObject action;
                //看代码就应该看到 我们需要一个target的位置向量 一个action的GameObject 
                //还有一个距离的返回值 


                public override TaskStatus OnUpdate()
                {
                    storeResult.Value = Vector3.Distance(firstVector3.Value, action.Value.transform.position);
                    return TaskStatus.Success;
                }

                public override void OnReset()
                {
                    storeResult = 0;
                }
            }
        }
  • 随后,我们就要判断这个距离的值 ,来给定这个机器人 是否是移动,还是静止
  • 我们还是来写一个自定义Task 来实现
        using System.Collections;
        using System.Collections.Generic;
        using UnityEngine;
        namespace BehaviorDesigner.Runtime.Tasks.Basic.UnityVector3 { 
            public class comparedis : Action {

                public SharedFloat distance;
                public SharedFloat compare_dis ;
                /*compare_dis 表示一个范围 以distance 减去这个范围 
                表示以target为圆心 画一个compare_dis的球 只要进入这个球 ,说明已经到达目的地  */
                public SharedBool storeResult;
                /*我们返回一个bool值 他的意思是机器人是否静止 
                  如果和target的计算距离大于0 那么就不是禁止 他就应该移动到target 否则 他是静止的,就应该做相应的动画 
                */
                public override TaskStatus OnUpdate()
                {
                    storeResult.Value = distance.Value - compare_dis.Value > 0 ? false : true ; 
                    return TaskStatus.Success;
                }

                public override void OnReset()
                {

                }
            }
        }
  • 好了 我们这两个Task已经写好了 然后用一个Sequence 连接两个任务
    start
  • 做完了这个,我们又要分情况讨论了 一个是移动 一个是移动结束

2.移动到target

  • 移动到target我们要用一个判断来做相应的事件 首先 我们判断第一步的变量 isstop 看看是否静止 如果是false的话,执行下面的步骤 否则的话 ,跳转到面向摄像机

  • 下面一层 我们用一个selector节点 来选择一个节点执行
    选择是播放起飞动画呢 ,还是move呢

  • 首先播放起飞动画的条件是 isfirstfly 初始值是true 那么开始执行飞行动画 ,执行结束 把这个值设置false false就不进入这个节点 而是去选择执行move 节点 。

  • 动画这个也是一个坑 我用比较长的一段详细讲一下。收悉的朋友可以跳过这一段 。

move

-looktarget前面也讲过了 movetotarget是封装以后的translate 可以自己动脑去实现一下

3.停止逻辑

stop

4.第一次停止动画

firststop

5.面向摄像机

lookcam

  • 面向摄像机以后 要判断是否已经结束 我们要判断向量的方向来决定
  • 首先先计算机器人的forward向量 然后机器人位置减摄像机的位置 ,得到一个方向向量 最后判断两个向量的单位向量是否相同 就可以了

6.面向UI

  • 我规定 当外界代码控制修改一个全局变量 就把他设置成true 然后指定一个UI物体 那么下一帧就可以面向UI了

lookUI

7.面向UI之后的动作

UIaction