내쉬 균형 (Nash equilibrium)은 게임 이론에서 경쟁자 대응에 따라 최선의 선택을 하면 서로가 자신의 선택을 바꾸지 않는 균형상태를 말한다. 상대방이 현재 전략을 유지한다는 전제 하에 나 자신도 현재 전략을 바꿀 유인이 없는 상태를 말하는 것으로 죄수의 딜레마 게임 또는 죄수의 딜레마(Prisoner's Dilemma)라고 하는 것과 밀접한 관계가 있다.

<출처: 위키백과>



개미 집단 최적화 알고리즘

개미집단최적화알고리즘(ACO)는 컴퓨터를 이용해 연결그래프의 최적의 길을 찾는 방법을 줄일 수 있는 알고리즘이다.


이 알고리즘은 개미집단 알고리즘(ant colony algorithm)의 일부이다.

1992년 Marco Dorigo 박사의 논문에서 제안되었는데 그래프에서 최적의 길을 찾는 것을 목적으로 했다. 이 알고리즘은 먹이를 찾는 개미의 행동을 보고 만들어졌다.


 

첫 번째 개미가 (a) 방향으로 어느 길이든 경유해 먹이(F)를 찾아낸다. 그러면 개미는 (b)방향으로 페로몬을 남기며 집(N)으로 돌아온다. 개미는 집에서 음식까지 4가지의 이동경로를 가질 수 있다. 하지만 시간이 지나면 개미들은 가장 짧은 길을 선택한다. 결국 페로몬이 증발하면서 긴 길은 사라지게 된다.


개미들은 다음과 같은 과정을 따른다.


1. 개미들은 무작정 개미집 주변을 돌아다닌다.

2. 만약 음식을 찾아내면 개미는 페로몬을 뿌리며 집으로 돌아온다.

3. 페로몬은 매우 매력적이어서 개미가 따라가고 싶게 만든다.

4. 개미가 집으로 돌아오는 횟수가 많을수록 그 경로는 더 견고해진다.

5. 긴 경로와 짧은 경로가 있으면 같은 시간에 짧은 경로로 이동할 수 있는 횟수가 많다.

6. 짧은 경로는 갈수록 더 많은 페로몬이 뿌려지면서 더욱 견고해진다.

7. 페로몬은 휘발성이기 때문에 시간이 지나면서 긴 경로는 사라진다.

8. 결국 모든 개미가 짧은 경로를 선택한다.


An example pseudo-code and formulae


procedure ACO_MetaHeuristic

   while(not_termination)

      generateSolutions()

      daemonActions()

      pheromoneUpdate()

   end while

end procedure


Edge Selection

개미가 노드 i에서 j로 이동할 확률은 다음과 같다.


τi,j 는 edge i,j에 있는 페로몬의 양이다.

α 는 τi,j 의 영향력을 조절하기 위한 변수.

ηi,j 는 edge i,j 에 대한 만족도이다(초기에 주어지는 값, 보통 1 / di,j, 이며 d는 거리이다.).

β 는 of ηi,j 의 영향력을 조절하기 위한 변수.


Pheromone Update

τi,j = (1 − ρ)τi,j + Δτi,j


τi,j edge i,j 에 남아있는 페로몬의 양.

ρ 페로몬의 증발률.


Δτi,j 는 초기에 주어지는 값이며, 보통 다음과 같이 정한다.


Lk 는 K번째 개미가 여행하는데 드는 비용(보통 길이).


From Wikipedia, the free encyclopedia


http://en.wikipedia.org/wiki/Ant_colony_optimization#Summary





From Wikipedia, the free encyclopedia


http://en.wikipedia.org/wiki/Ant_colony_optimization#Summary


출처 : http://antalgo.cafe24.com/



----------------------------------------본----인----작----성----------------------------------------




A. 개발 동기 및 필요성

- 최근 이슈가 되고 있는 개인 무선 방송은 예전 같은 큰 규모의 방송기기나 많은 인원수가 아닌 개인이 다양한 행사 현장을 방문하여
노트북 과 캠을 이용하여 행사 현장의 모습을 촬영 하여 서버로 전송 하여 방송을 시청하기 원하는 유저들이 그 서버로 접속하여 시청하는 것이다.
이 구조에서 방송을 촬영 하여 서버로 전송하는 유저는 서버로 전송 하기 위하여 핸드폰 즉 현재 구축된 3G 셀루라망의 서비스를 받을 수 있는
어댑터로 3G 망으로 촬영된 정보를 송신 한다. 3G의 대역폭은 최대 2Mbps로서 전송 하고자 하는 촬영된 영상 데이터의 퀄러티가 낮을 수밖에 없다.
 최근 휴대폰이나 PDA와 같은 컴퓨터 하드웨어와 블루투스와 같은 무선 네트워크 기술의 급격한 발달은 모바일 컴퓨팅을 점차 가능케 하고 있다.
그러나 현존하는 기술들은 물리적 제약 조건으로 인해 좁은 통신 대역폭, 잦은 접속 단절, 배터리 부족 등의 문제를 가진다. 이러한 문제들 중 좁은
통신 대역폭을 해결하기 위해 무선 인터넷 환경에서 멀티 주파수 채널 사용에 대한 많은 연구가 있었다. 이러한 기법은 단일 네트워크 인터페이스가
 아닌 2개 이상의 네트워크 인터페이스 가지고 있다 가정하고, 하나의 인터페이스에는 데이터 수신을 위한 수신용 채널을 다른 인터페이스에는 데이터
전송하기 위한 송신용 채널을 할당하여 데이터 패킷의 송신과 수신을 동시에 가능하게 하여 전체 네트워크 처리량을 향상시키는 장점이 있다.
이러한 장점을 개인 무선 방송에 접목한 기술에 대해 기술한다.




B. 솔루션 - 다중 인터페이스 전송 전략


- 행사 현장을 개인 유저가 방송을 진행 시 대부분 노트북과 이에 포함된 무선인터넷(3G 셀루라망) 으로 현장의 모습을 CAM으로 촬영하여 전송한다.

정해진 일정한 대역폭(3G) 만으로는 향상된 퀄러티의 영상을 전송하기에는 대역폭이 너무 제한적이다. 이에 위에 설명 하였던 멀티 주파수 채널
사용방법에 착안하여 사용가능한 모든 대역폭을 사용하고 클라이언트가 증가시 클라이언트 수 만큼 대역폭을 균등하게 나누어 사용하는 기존의
유선 네트워크(LAN), 무선 네트워크(WLAN) 과 달리  일정한 대역폭을 클라이언트에 할당하는 3G 셀루망에서 다수의 3G 단말기를 사용하여 3G 단말기의 2Mbps
의 대역폭을 3G 단말기 수 만큼 할당 받아 고 퀄러티의 방송 영상을 실시간 전송 가능 하게 하는 방식을 제안 한다.




C. 구현


- 2개 이상의 3G 어댑터 전송을 위한 소켓 생성

- 수신측은 소켓 수만큼의 UDPCLIENT 생성 각 UDPCLIENT 마다 쓰레드를 생성 하여 데이타 수신 대기
-
다중 소켓중 일부는 신뢰서비스인 TCP로 연결을 하고 나머지는 UDP로 소케 생성
-
하나의 TCP 소켓은 작지만 중요한 콘트롤 메시지 전송(버퍼링 순서에 관한 데이터를 주고 받으며 TCP 로 보낸 I프레임이 패킷 Loss시 버퍼링 순서와 플레이 타이밍을 계산하여 재전송 받을 시간안에 플레이되지 않다고 판단되면 재전송을 자동으로(TCP) 받으나 재생시간 전에 도착 내지 지나간 프레임이면 이 컨트롤 TCP소켓으로 그 I프레임 재전송을 하지 못하게 컨트롤 메시지를 전송한다)
- Mpeg2
기반으로 I, B, P 프레임을 추출하여 중요 데이터인 I프레임은 다른 TCP 소켓으로 전송

-
나머지 B, P 프레임은 UDP 소켓으로 전송한다.


D. 구현후(시뮬레이션) 결론


3G
셀루라망에서 다중 인터페이스 사용시 대역폭 상승으로 고해상도, 높은 프레임 전송이 가능하였다.
- 한 프레임 생성시 데이터 양 16384 byte
-
동영상으로 재생을 위한 30프레임 데이터양 16384 * 30 = 491520 =
500kb
-
초당 약 500kb 데이터 전송이 가능해야 30프레임 으로 실시간 영상 전송 가능

- 3G
단말기 대역폭 약 2Mbps = 약 초당 250kb 전송 가능
- 3G
단말기 5개 연결시 2Mbps * 5 = 10Mbps = 초당 1.25Mb 전송 가능 (이론상, 실제 하나의 소켓은 콘트롤 메세지를 위해 돌며 Tcp와 Udp 전송량은 틀리며 여러 소켓으로 인해 수신된 데이타를 오더링시의 시스템 로드 한계로 인해 소켓 갯수 제한됨)
-
위 데이터는 하나의 단말로는 처리 불가능 하나 5개의 단말로는 더 고화질 데이터 전송이 가능하다


 


트랜스패런트 브리징(transparent bridging)

트랜스패런트란 투명하다는 의미이다 즉 네트워크에서 트랜스패런트란 "사용자가 의식하지 못하게 자동으로 동작한다" 라는 의미.

1. 러닝 : 패킷을 받았을때 패킷의 출발지 MAC주소가 SW의 MAC Table에 존재 하지안으면 
             해당포트에서 이러한 MAC주소가 나온다고 등록한다.

2. 에이징 : 이렇게 등록된 MAC주소는 5분동안 유지되며 5분이 지나도 같은 데이터가 나오지 않으면삭제된다.
                만약 같은 패킷에서 동일한 MAC이 존재하면 다시 5분이 리셋된다. 이러한 과정을 에이징이라고 한다.

3. 플러딩 : MAC주소의 목적지가 브로드케스트 이거나, 새로은 MAC주소의 경우 다른 출발지 포트를 
                제외한 다른 포트에게도 해당 정보를 보내어 준다. 이러한 과정을 플러딩이라고 한다   .       

4. 필터링 : 출발지와 목적지의 MAC주소가 동일하면 해당 프레임은 차단된다.

5. 포워딩 : 출발지와 목적지가 다른 MAC주소를 가지고 있으면 해당 프래임은 목적지 MAC주소를 가
                진 포트로 전송시킨다 이것이 포워딩이다.


Retrieved from : http://blog.naver.com/sdream4/10048341954 


Goal programming

 

Goal programming is a branch of multiobjective optimization, which in turn is a branch of multi-criteria decision analysis (MCDA), also known as multiple-criteria decision making (MCDM). This is an optimization programme. It can be thought of as an extension or generalisation of linear programming to handle multiple, normally conflicting objective measures. Each of these measures is given a goal or target value to be achieved. Unwanted deviations from this set of target values are then minimised in an achievement function. This can be a vector or a weighted sum dependent on the goal programming variant used. As satisfaction of the target is deemed to satisfy the decision maker(s), an underlying satisficing philosophy is assumed.


History

Goal programming was first used by Charnes, Cooper and Ferguson in 1955,[1] although the actual name first appear in a 1961 text by Charnes and Cooper.[2] Seminal works by Lee,[3] Ignizio,[4] Ignizio and Cavalier,[5] and Romero[6] followed. Schniederjans gives in a bibliography of a large number of pre-1995 articles relating to goal programming,[7] and Jones and Tamiz give an annotated bibliography of the period 1990-2000.[8]

The first engineering application of goal programming, due to Ignizio in 1962, was the design and placement of the antennas employed on the second stage of the Saturn V. This was used to launch the Apollo space capsule that landed the first men on the moon.

Variants

The initial goal programming formulations ordered the unwanted deviations into a number of priority levels, with the minimisation of a deviation in a higher priority level being infinitely more important than any deviations in lower priority levels. This is known as lexicographic or pre-emptive goal programming. Ignizio[4] gives an algorithm showing how a lexicographic goal programme can be solved as a series of linear programmes. Lexicographic goal programming should be used when there exists a clear priority ordering amongst the goals to be achieved.

If the decision maker is more interested in direct comparisons of the objectives then Weighted or non pre-emptive goal programming should be used. In this case all the unwanted deviations are multiplied by weights, reflecting their relative importance, and added together as a single sum to form the achievement function. It is important to recognise that deviations measured in different units cannot be summed directly due to the phenomenon of incommensurability.

Hence each unwanted deviation is multiplied by a normalisation constant to allow direct comparison. Popular choices for normalisation constants are the goal target value of the corresponding objective (hence turning all deviations into percentages) or the range of the corresponding objective (between the best and the worst possible values, hence mapping all deviations onto a zero-one range).[6] For decision makers more interested in obtaining a balance between the competing objectives, Chebyshev goal programming should be used. Introduced by Flavell in 1976,[9] this variant seeks to minimise the maximum unwanted deviation, rather than the sum of deviations. This utilises the Chebyshev distance metric, which emphasizes justice and balance rather than ruthless optimisation.

Strengths and weaknesses

A major strength of goal programming is its simplicity and ease of use. This accounts for the large number of goal programming applications in many and diverse fields.[8] As weighted and Chebyshev goal programmes can be solved by widely available linear programming computer packages, finding a solution tool is not difficult in most cases. Lexicographic goal programmes can be solved as a series of linear programming models, as described by Ignizio and Cavalier.[4]

Goal programming can hence handle relatively large numbers of variables, constraints and objectives. A debated weakness is the ability of goal programming to produce solutions that are not Pareto efficient. This violates a fundamental concept of decision theory, that is no rational decision maker will knowingly choose a solution that is not Pareto efficient. However, techniques are available [10][6] [11] to detect when this occurs and project the solution onto the Pareto efficient solution in an appropriate manner.

The setting of appropriate weights in the goal programming model is another area that has caused debate, with some authors [12] suggesting the use of the Analytic Hierarchy Process or interactive methods [13] for this purpose.

References

  1. ^ A Charnes, WW Cooper, R Ferguson (1955) Optimal estimation of executive compensation by linear programming, Management Science, 1, 138-151.
  2. ^ A Charnes, WW Cooper (1961) Management models and industrial applications of linear programming, Wiley, New York
  3. ^ SM Lee (1972) Goal programming for decision analysis, Auerback, Philadelphia
  4. ^ a b c JP Ignizio (1976) Goal programming and extensions, Lexington Books, Lexington, MA.
  5. ^ JP Ignizio, TM Cavalier (1994) Linear programming, Prentice Hall.
  6. ^ a b c C Romero (1991) Handbook of critical issues in goal programming, Pergamon Press, Oxford.
  7. ^ MJ Scniederjans (1995) Goal programming methodology and applications, Kluwer publishers, Boston.
  8. ^ a b DF Jones, M Tamiz (2002) Goal programming in the period 1990-2000, in Multiple Criteria Optimization: State of the art annotated bibliographic surveys, M. Ehrgott and X.Gandibleux (Eds.), 129-170. Kluwer
  9. ^ RB Flavell (1976) A new goal programming formulation, Omega, 4, 731-732.
  10. ^ EL Hannan (1980) Non-dominance in goal programming, INFOR, 18, 300-309
  11. ^ M Tamiz, SK Mirrazavi, DF Jones (1999) Extensions of Pareto efficiency analysis to integer goal programming, Omega, 27, 179-188.
  12. ^ SI Gass (1987) A process for determining priorities and weights for large scale linear goal programmes, Journal of the Operational Research Society, 37, 779-785.
  13. ^ BJ White (1996) Developing Products and Their Rhetoric from a Single Hierarchical Model, 1996 Proceedings of the Annual Conference of the Society for Technical Communication, 43, 223-224.

Pareto efficiency

 

Pareto efficiency, or Pareto optimality, is a concept in economics with applications in all areas of the discipline as well as engineering and other social sciences. The term is named after Vilfredo Pareto, an Italian economist who used the concept in his studies of economic efficiency and income distribution. Informally, Pareto efficient situations are those in which it is impossible to make one person better off without necessarily making someone else worse off.

Given a set of alternative allocations of goods or outcomes for a set of individuals, a change from one allocation to another that can make at least one individual better off without making any other individual worse off is called a "Pareto improvement". An allocation is defined as "Pareto efficient" or "Pareto optimal" when no further Pareto improvements can be made. Such an allocation is often called a "strong Pareto optimum (SPO)" by way of setting it apart from mere "weak Pareto optima" as defined below.

Formally, a (strong/weak) Pareto optimum is a maximal element for the partial order relation of Pareto improvement/strict Pareto improvement: it is an allocation such that no other allocation is "better" in the sense of the order relation.

Pareto efficiency does not necessarily result in a socially desirable distribution of resources, as it makes no statement about equality or the overall well-being of a society.[1][2]

 

Weak and strong Pareto optimum

A "weak Pareto optimum" (WPO) nominally satisfies the same standard of not being Pareto-inferior to any other allocation, but for the purposes of weak Pareto optimization, an alternative allocation is considered to be a Pareto improvement only if the alternative allocation is strictly preferred by all individuals (i.e., only if all individuals would gain from a transition to the alternative allocation). In other words, when an allocation is WPO there are no possible alternative allocations whose realization would cause every individual to gain.

Weak Pareto-optimality is "weaker" than strong Pareto-optimality in the sense that the conditions for WPO status are "weaker" than those for SPO status: Any allocation that can be considered an SPO will also qualify as a WPO, while the reverse does not hold: a WPO allocation won't necessarily qualify as SPO.

Under any form of Pareto-optimality, for an alternative allocation to be Pareto-superior to an allocation being tested -- and, therefore, for the feasibility of an alternative allocation to serve as proof that the tested allocation is not an optimal one -- the feasibility of the alternative allocation must show that the tested allocation fails to satisfy at least one of the requirements for SPO status. One may apply the same metaphor to describe the set of requirements for WPO status as being "weaker" than the set of requirements for SPO status. (Indeed, because the SPO set entirely encompasses the WPO set, with respect to any property the requirements for SPO status are of strength equal to or greater than the strength of the requirements for WPO status. Therefore, the requirements for WPO status are not merely weaker on balance or weaker according to the odds; rather, one may describe them more specifically and quite fittingly as "Pareto-weaker.")

  • Note that when one considers the requirements for an alternative allocation's superiority according to one definition against the requirements for its superiority according to the other, the comparison between the requirements of the respective definitions is the opposite of the comparison between the requirements for optimality: To demonstrate the WPO-inferiority of an allocation being tested, an alternative allocation must falsify at least one of the particular conditions in the WPO subset, rather than merely falsify at least one of either these conditions or the other SPO conditions. Therefore, the requirements for weak Pareto-superiority of an alternative allocation are harder to satisfy -- i.e., "stronger" -- than are the requirements for strong Pareto-superiority of an alternative allocation.)
  • It further follows that every SPO is a WPO (but not every WPO is an SPO): Whereas the WPO description applies to any allocation from which every feasible departure results in the NON-IMPROVEMENT of at least one individual, the SPO description applies to only those allocations that meet both the WPO requirement and the more specific ("stronger") requirement that at least one non-improving individual exhibit a specific type of non-improvement, namely DOING WORSE.
  • The "strong" and "weak" descriptions of optimality continue to hold true when one construes the terms in the context set by the field of semantics: If one describes an allocation as being a WPO, one makes a "weaker" statement than one would make by describing it as an SPO: If the statements "Allocation X is a WPO" and "Allocation X is a SPO" are both true, then the former statement is less controversial than the latter in that to defend the latter, one must prove everything one must prove to defend the former "and then some." By the same token, however, the former statement is less informative or contentful in that it "says less" about the allocation; that is, the former statement contains, implies, and (when stated) asserts fewer constituent propositions about the allocation.

Pareto efficiency in economics

An economic system that is Pareto inefficient implies that a certain change in allocation of goods (for example) may result in some individuals being made "better off" with no individual being made worse off, and therefore can be made more Pareto efficient through a Pareto improvement. Here 'better off' is often interpreted as "put in a preferred position." It is commonly accepted that outcomes that are not Pareto efficient are to be avoided, and therefore Pareto efficiency is an important criterion for evaluating economic systems and public policies.

If economic allocation in any system (in the real world or in a model) is not Pareto efficient, there is potential for a Pareto improvement — an increase in Pareto efficiency: through reallocation, improvements to at least one participant's well-being can be made without reducing any other participant's well-being.

In the real world ensuring that nobody is disadvantaged by a change aimed at improving economic efficiency may require compensation of one or more parties. For instance, if a change in economic policy dictates that a legally protected monopoly ceases to exist and that market subsequently becomes competitive and more efficient, the monopolist will be made worse off. However, the loss to the monopolist will be more than offset by the gain in efficiency. This means the monopolist can be compensated for its loss while still leaving an efficiency gain to be realized by others in the economy. Thus, the requirement of nobody being made worse off for a gain to others is met.

In real-world practice, the compensation principle often appealed to is hypothetical. That is, for the alleged Pareto improvement (say from public regulation of the monopolist or removal of tariffs) some losers are not (fully) compensated. The change thus results in distribution effects in addition to any Pareto improvement that might have taken place. The theory of hypothetical compensation is part of Kaldor-Hicks efficiency, also called Potential Pareto Criterion. (Ng, 1983).

Under certain idealized conditions, it can be shown that a system of free markets will lead to a Pareto efficient outcome. This is called the first welfare theorem. It was first demonstrated mathematically by economists Kenneth Arrow and Gerard Debreu. However, the result does not rigorously establish welfare results for real economies because of the restrictive assumptions necessary for the proof (markets exist for all possible goods, all markets are in full equilibrium, markets are perfectly competitive, transaction costs are negligible, there must be no externalities, and market participants must have perfect information). Moreover, it has since been demonstrated mathematically that, in the absence of perfect information or complete markets, outcomes will generically be Pareto inefficient (the Greenwald-Stiglitz Theorem).[3]

Explicit consideration of Pareto-efficiency of economic factors (labor, capital) and value added of sectors is given by Dalimov (2008, 2009). It shows that a pair of the value added and labor income behave within and between regions as a linked pair obeying to the heat equation (i.e. they move as just any gas or a liquid obeying to the heat and/or diffusion equations).

Modification of the heat equation has been found as responsible for the dynamics of the factors for a case of international economic integration. Pareto-efficiency here is considered as most optimal (mathematically) re-allocation of the factors taking place due to economic integration. It fits one of clear definitons of Pareto-optimality applied to economics stating that Pareto-efficiency of economic parameters is achieved if there could be no better change of these parameters (Jovanovich, 2005). In other words, there has to be fulfilled a condition of the first spatial derivatives of the factors tending to zero after economic integration.

Economically a starting point for analysis was an idea that labor migrates to place of better wages while capital - to areas with higher returns (as example, consider unification of Germany, with labor moving from east to west, and capital being invested from West Germany to eastern part of the unified state), with direction of respective migration flows being opposite to each other. But the outcome of the analysis has shown that only value added of sectors (not capital) and annual wages of labor act as linked pair of parameters. Economically this means that businesses make value added in less developed integrated areas, while labor still moves to places with higher wages. The other straight conclusion is with the dynamic equation obtained (non-homogeneous heat equation) which for decades has been considered in physics as quite developed tool of analysis. So now one may attempt to use results previously obtained in physics and apply them for variety of tasks concerning migrating parameters in economics.

Generally, Pareto-efficiency in economics is observed when there come measures changing trade environment within considered region (either state or a group of neighbor states). This is a reason why Pareto-efficiency is one of the intrinsic features of economic integration, both theory and practice.



Formal representation

Pareto frontier

Example of a Pareto frontier. The boxed points represent feasible choices, and smaller values are preferred to larger ones. Point C is not on the Pareto Frontier because it is dominated by both point A and point B. Points A and B are not strictly dominated by any other, and hence do lie on the frontier.

Given a set of choices and a way of valuing them, the Pareto frontier or Pareto set is the set of choices that are Pareto efficient. The Pareto frontier is particularly useful in engineering: by restricting attention to the set of choices that are Pareto-efficient, a designer can make tradeoffs within this set, rather than considering the full range of every parameter.

The Pareto frontier is defined formally as follows..

Consider a design space with n real parameters, and for each design-space point there are m different criteria by which to judge that point. Let f : \mathbb{R}^n \rightarrow \mathbb{R}^m be the function which assigns, to each design-space point x, a criteria-space point f(x). This represents the way of valuing the designs. Now, it may be that some designs are infeasible; so let X be a set of feasible designs in {\mathbb{R}}^n, which must be a compact set. Then the set which represents the feasible criterion points is f(X), the image of the set X under the action of f. Call this image Y.

Now construct the Pareto frontier as a subset of Y, the feasible criterion points. It can be assumed that the preferable values of each criterion parameter are the lesser ones, thus minimizing each dimension of the criterion vector. Then compare criterion vectors as follows: One criterion vector y strictly dominates (or "is preferred to") a vector y* if each parameter of y is no greater than the corresponding parameter of y* and at least one parameter is strictly less: that is, \mathbf{y}_i \le \mathbf{y*}_i for each i and \mathbf{y}_i < \mathbf{y*}_i for some i. This is written as \mathbf{y} \succ \mathbf{y*} to mean that y strictly dominates y*. Then the Pareto frontier is the set of points from Y that are not strictly dominated by another point in Y.

Formally, this defines a partial order on Y, namely the (opposite of the) product order on \mathbb{R}^m (more precisely, the induced order on Y as a subset of \mathbb{R}^m), and the Pareto frontier is the set of maximal elements with respect to this order.

Algorithms for computing the Pareto frontier of a finite set of alternatives have been studied in computer science, being sometimes referred to as the maximum vector problem or the skyline query[4] [5].

Relationship to marginal rate of substitution

An important fact about the Pareto frontier in economics is that at a Pareto efficient allocation, the marginal rate of substitution is the same for all consumers. A formal statement can be derived by considering a system with m consumers and n goods, and a utility function of each consumer as zi = fi(xi) where x^i=(x_1^i, x_2^i, \ldots, x_n^i) is the vector of goods, both for all i. The supply constraint is written \sum_{i=1}^m x_j^i = b_j^0 for j=1,\ldots,n. To optimize this problem, the Lagrangian is used:

L(x, \lambda, \Gamma)=f^1(x^1)+\sum_{i=2}^m \lambda_i(z_i^0 - f^i(x^i))+\sum_{j=1}^n \Gamma_j(b_j^0-\sum_{i=1}^m x_j^i) where λ and Γ are multipliers.

Taking the partial derivative of the Lagrangian with respect to one good, i, and then taking the partial derivative of the Lagrangian with respect to another good, j, gives the following system of equations:

\frac{\partial L}{\partial x_j^i} = f_{x^1}^1-\Gamma_j^0=0 for j=1,...,n. \frac{\partial L}{\partial x_j^i} = -\lambda_i f_{x^i}^i-\Gamma_j^0=0 for i = 2,...,m and j=1,...,m, where fx is the marginal utility on f' of x (the partial derivative of f with respect to x).

\frac{f_{x_j^i}^i}{f_{x_s^i}^i}=\frac{f_{x_j^k}^k}{f_{x_s^k}^k} for i,k=1,...,m and j,s=1,...,n.

Pareto-allocation of the factors may be stated more explicitly and clearly by formulating its definition mathematically as a condition when temporal derivatives of the parameters (economic factors, such as a labor or capital) strive to zero. That means that it is indeed an optimal allocation, identical to Pareto-efficiency condition.

See also

Notes

  1. ^ Barr, N. (2004). Economics of the welfare state. New York, Oxford University Press (USA).
  2. ^ Sen, A. (1993). Markets and freedom: Achievements and limitations of the market mechanism in promoting individual freedoms. Oxford Economic Papers, 45(4), 519-541.
  3. ^ Greenwald, Bruce; Stiglitz, Joseph E. (1986), "Externalities in economies with imperfect information and incomplete markets", Quarterly Journal of Economics 101: 229–264 
  4. ^ Kung, H.T.; Luccio, F.; Preparata, F.P. (1975), "On finding the maxima of a set of vectors.", Journal of the ACM 22(4): 469–476 
  5. ^ Godfrey, Parke; Shipley, Ryan; Gryz, Jarek (2006), "Algorithms and Analyses for Maximal Vector Computation", VLDB Journal 16: 5-28 

References

  • Fudenberg, D. and Tirole, J. (1983). Game Theory. MIT Press. Chapter 1, Section 2.4. 
  • Ng, Yew-Kwang (1983). Welfare Economics. Macmillan. 
  • Osborne, M. J. and Rubenstein, A. (1994). A Course in Game Theory. MIT Press. pp. 7. ISBN 0-262-65040-1. 
  • Dalimov R.T. Modelling International Economic Integration: an Oscillation Theory Approach. Victoria, Trafford, 2008, 234 p.
  • Dalimov R.T. The heat equation and the dynamics of labor and capital migration prior and after economic integration. African Journal of Marketing Management, vol. 1 (1), pp.023–031, April 2009.

Jovanovich, M. The Economics Of European Integration: Limits And Prospects. Edward Elgar, 2005, 918 p.




Retrieved from : http://en.wikipedia.org/wiki/Pareto_efficiency


유전 알고리즘최적화 문제를 해결하는 기법의 하나로, 전역 최적화 기법이다. 생물의 진화를 모방한 기법인 진화 연산의 대표로서, 생명체에 적용되는 많은 방식을 차용하여, 변이(돌연변이), 교차(교배) 연산 등이 존재하며, 세대, 인구와 같은 용어도 사용한다.

 

개요

용어

  • 세대 : 세대는 특정한 순간의 해의 집합을 의미한다. 각 세대의 해는 교배나 변이를 통해 다음 세대의 해를 만들어낸다.
  • 인구 : 인구는 특정한 세대의 해의 개수를 의미한다.
  • 유전 알고리즘은 유전자 알고리즘이라고도 한다. 그러나 유전 알고리즘은 유전 현상을 문제 해결이나 시뮬레이션에 이용하는 것일 뿐, 유전자의 이용에 초점을 두지 않는다. 따라서 genetic algorithm을 유전자 알고리즘으로 번역한 것은 오역이라고 볼 수 있다.[1]

요구 조건

유전 알고리즘을 어떤 문제에 적용하기 위해서는 유전자 표기적합도 함수를 정의해야한다.d 일반 생명체의 특성이 유전체의 집합인 유전자로 나타나는 것과 같이, 유전자 표기는 문제의 특성을 숫자나 문자열과 같은 값의 집합으로 표시하게 된다. 적합도 함수는 특정 해가 얼마나 적합한지 나타내는 함수이다. 일반 생명체가 유전자에 따라 특정 환경이나 질병에서 살아 남을 수 있는 확률이 존재하는 것과 같이, 적합도 함수는 주어진 해가 다음 세대를 생산할 수 있을지, 혹은 세대를 남기지 못하고 없어질지를 정하게 된다.

흐름

어떤 문제에 대해 유전자 표기와 적합도 함수가 정의되었다면, 문제에 대한 초기 해의 집합을 구한다. 초기 해는 좋을 필요가 없으며, 단순히 이후의 해를 구하는 데 있어 필요한 아담과 하와와 같은 초기 개체로서의 역할을 한다. 생명체가 교배를 통해 다음 세대를 생성하는 것과 마찬가지로, 초기 해의 집합 내부의 해의 교배를 통해 다음 세대의 해의 집합을 생성하게 된다. 교배시에는 적합도 함수를 이용해 적합한 유전자를 가진 개체를 찾는 과정이 있게되며, 보다 나은 유전자를 가진 해가 다음 세대에 자신의 유전자를 넘겨줄 확률이 높게 된다. 비록 교배를 통해 후손을 남기지 못하더라도, 변이를 통해 새로운 유전자를 형성하여 다음 세대로 넘겨줄 수 있으며, 변이는 지역 최적점에 빠지지 않도록 하는 주요한 기법이다.

유전 알고리즘이 전역 최적해를 구하려면, 많은 인구를 유지하면서 많은 세대를 내려갈 필요가 있다. 따라서, 대부분의 경우는 세대가 일정 수준 진행되었거나, 해가 특정 범위에 들게되면 알고리즘을 종료하게 된다.

연산

유전 알고리즘은 선택, 교차, 변이, 대치 등 몇가지 주요 연산으로 구성된다.

선택

한 세대에서 다음 세대로 전해지는 해의 후보가 되는 해들을 선택한다. 선택 방법에는 균등 비례 룰렛휠 선택, 토너먼트 선택, 순위 기반 선택 등이 있다.

선택의 문제는 중요한 문제일 수 있다. 어떤 방법을 쓰느냐에 따라 최적해로 다가가는 속도가 더디게 되거나, 아니면 지역최적화에 쉽게 빠질 수 있기 때문이다. 또한 우수한 해가 보유한 나쁜 인자가 전체 인구에 퍼질 수도 있다. 반대로 나쁜 해가 보유한 우수한 인자가 영구히 사장될 수도 있기때문이다. 때문에 선택의 문제는 고민이 필요한 부분이라 할 수 있다. 일반적으로는 가장 좋은 해의 순으로 선택될 확률이 높게 부여하는 방법론이 많이 쓰인다고 한다. 즉 나쁜 해라 할지라도 그 해속에 포함된 좋은 인자를 퍼뜨릴 기회를 주자는 것이다. 머리도 좋고 잘생겼지만 매사 법대로 논리대로만 진행하는 사람과 머리도 그리좋지 못하고 평균적으로 떨어지지만 유대관계도 좋고 평판이 좋은 사람 누가 좋은가는 아무도 모르는 것이므로 시스템을 구현하는 사람의 의지가 짙게 깔리는 부분이라고도 할 수 있다.

교차

일반 생명체는 세대 내에서의 교배를 통해 다음 세대를 생성한다. 일반적으로 두 개의 해가 교배를 해서 다음 세대의 해를 생성하게 되며, 새로운 해는 각각의 부모 해로부터 서로 겹치지 않는 위치의 유전체를 받아 새로운 유전자를 구성하게 된다. 이때 염색체가 재조합되는 과정에서 부모 염색체의 일부분이 특정 위치를 기준으로 서로 바뀌어 결합되는 경우가 있는데 이 현상을 교차라고 한다. 유전 알고리즘에서는 이 교차 현상을 의도적으로 이용, 부모해를 교차시켜서 자식해를 만들어낸다.

변이

일반 생명체에서, 유전자의 교배 뿐 아니라, 하나의 유전자가 직접적으로 변이를 일으켜서 주어진 환경에서 살아남을 확률 역시 존재한다. 변이 연산은 주어진 해의 유전자 내의 유전체가 순서를 바꿔서 다른 유전자 표기로 되는 것이다.

대치

교차·변이 등을 거쳐서 만들어진 새로운 해를 해집단에 추가하고 기존 해 중 열등한 해를 가려내서 제외시키는 연산이다. 가장 품질이 나쁜 해를 대치하는 방법, 새로운 해의 부모해 중에서 새로운 해와 가장 비슷한 해를 대치시키는 방법(해집단의 다양성을 유지하기 위함) 등이 있다.

{1, 5, 6, 8, 3, 7, 3, 5, 9, 0} 중 3개를 골라서 20으로 만드는 문제가 있다고 하자. 여기서 유전체는 각 숫자이며, 유전자는 (1,5,3)와 같이 유전체 3개의 집합으로 이루어진다. 적합도 함수를 20과 얼마나 가까운지를 나타내는 값으로 둔다면, (1,5,3)에 대한 적합도는 f( (1,5,3) ) = 11이 된다.

먼저 첫 세대를 아무렇게나 생성한다. 첫 세대가 만약 { (1,5,3) (8,0,9) (9,9,8) (3,7,5) } 으로 형성되었다고 하자. 각각의 적합도를 구하면, { 11, 3, 7, 5 }이 되며, 이 값이 높을수록 20에서 멀기 때문에 해로서 부적당하다는 것을 의미하며, 따라서 세대를 거침에 따라 살아남을 확률이 낮게 된다.

다음 세대를 형성하기 위해, 이 세대의 개체중 2개의 유전자를 선택한다. 이때 선택은 적합도를 기준으로 확률적선택(룰렛 알고리즘이 자주 쓰인다)이다. 따라서 위의 예에서 (8,0,9)는 (9,9,8)에 비해 훨씬 높은 선택 기회를 가진다. 선택된 2개의 유전자의 유전체는 랜덤한 위치에서 교환되어 새로운 세대가 형성된다. 예로 (8,0,9), (9,9,8) 이 선택되었고 교배위치가 2번째 자리로 무작위로 결정되었다면 다음 세대의 개체는 (8,9,8) ,(9,0,9)로 된다.

관련 기법

  • 개미 집단 최적화 (ACO): 먹이를 찾아다니는 개미 집단의 행동에서 영감을 얻은 기법이다.
  • 담금질 기법 (SA): 해를 하나만 사용한다는 점이 가장 큰 차이점이다.
  • 미미틱 알고리즘: 지역 탐색 기법과 유전 알고리즘을 결합하여 빠른 시간 안에 좋은 해를 찾아내려고 하는 방법이다.
  • 유전 프로그래밍 교차와 변이를 사용하는 등 유전 알고리즘과 많이 닮은 기법이다. 해를 프로그램으로 표현한다는 점이 특징이다.
  • 진화 연산 생물의 진화에서 영감을 얻은 기법의 총칭이다. 현재는 진화 연산에 속하는 기법들의 차이가 점점 없어지고 있다.
  • 진화 전략: 교차를 사용하지 않고 변이에 의존하는 탐색 기법이다.
  • 진화 프로그래밍: 변이를 주로 사용하는 기법으로 진화 전략과 유사하다. 초기에는 해를 유한 오토마타로 나타내었고 지금도 고정된 표현을 쓰지 않는 것이 특징이다.

참고 문헌

주석

  1. 문병로, "쉽게 배우는 유전 알고리즘", 한빛미디어, 8쪽, 2008년

+ Recent posts