본문 바로가기

Dev15

[프로그래머스] 가장 큰 정사각형 찾기 (Level 2) Python 풀이 문제 설명 1와 0로 채워진 표(board)가 있습니다. 표 1칸은 1 x 1 의 정사각형으로 이루어져 있습니다. 표에서 1로 이루어진 가장 큰 정사각형을 찾아 넓이를 return 하는 solution 함수를 완성해 주세요. (단, 정사각형이란 축에 평행한 정사각형을 말합니다.) 예를 들어 해당 표에서 가장 큰 정사각형 넓이는 9가 되므로 9를 반환해 주면 됩니다. 제한사항 표(board)는 2차원 배열로 주어집니다. 표(board)의 행(row)의 크기 : 1,000 이하의 자연수 표(board)의 열(column)의 크기 : 1,000 이하의 자연수 표(board)의 값은 1또는 0으로만 이루어져 있습니다. 입출력 예 board answer [[0,1,1,1],[1,1,1,1],[1,1,1,1],[0.. 2020. 3. 11.
[프로그래머스] N으로 표현 문제 (Level 3) Python 풀이 문제 설명 아래와 같이 5와 사칙연산만으로 12를 표현할 수 있습니다. 12 = 5 + 5 + (5 / 5) + (5 / 5) 12 = 55 / 5 + 5 / 5 12 = (55 + 5) / 5 5를 사용한 횟수는 각각 6,5,4 입니다. 그리고 이중 가장 작은 경우는 4입니다. 이처럼 숫자 N과 number가 주어질 때, N과 사칙연산만 사용해서 표현 할 수 있는 방법 중 N 사용횟수의 최솟값을 return 하도록 solution 함수를 작성하세요. 제한사항 N은 1 이상 9 이하입니다. number는 1 이상 32,000 이하입니다. 수식에는 괄호와 사칙연산만 가능하며 나누기 연산에서 나머지는 무시합니다. 최솟값이 8보다 크면 -1을 return 합니다. 입출력 예 N number return 5 1.. 2020. 3. 10.
[알고리즘 개념] 동적 계획법 (Dynamic Programming?) 동적계획법 (Dynamic Programming) ? 크기가 작은 부분 문제들의 해들을 결합하여 문제를 해결하는 방법을 말한다. 이전 단계들의 점화식을 세워 해결하기도 한다. - 설계 원칙 1) 문제의 해를 구할 수 있는 재귀적인 성질을 설정한다. 2) 상향식 접근방식에 의해 크기가 작은 문제를 먼저 해결한 후, 크기가 큰 문제를 나중에 해결한다. 3) 크기가 큰 문제해결을 효율적으로 하기 위해, 크기가 작은 문제의 해는 테이블에 저장한다. (다시 계산 피하기 위해) - 분할 정복 방식과의 차이점 : 분할 정복 방식에서는 서로 공유되는 같은 부분문제가 있다 하더라도 독립적으로 반복적인 계산을 하지만, 동적계획법에서는 이러한 반복을 피할 수 있으므로 효율적인 문제 해결이 가능하다. 대표적인 문제로 이항계수.. 2020. 3. 9.
[Coursera ML][5주차] Neural Network : Learning 우와.. 강의 거의 다 들었는데... 컴퓨터가 맘대로 꺼져서필기가 다 날아갔다 ㅠㅠㅠㅠㅠ 저장을 습관화하자^^ 앞에는 읽기자료에서 다시 최대한 복기...쒸익... * 5주차 학습 목표 : 주어진 트레이닝 세트 parameter를 fitting하는 학습 알고리즘 1. Cost Function and Backpropagation L = total number of layers in the network sl = number of units (not counting bias unit) in layer l K = number of output units/classes Cost Function : logistic regression과 다른 점 : bias unit 포함하지 않고 계산, K=1~K output 유닛.. 2020. 3. 3.
[Coursera ML][4주차] Neural Networks : Representation 4주차부터 학습 내용 : Neural Networks이라 불리는 학습 알고리즘 앞서 배운 선형 회귀와 로지스틱 회귀가 기계학습에 사용되고 있는데, 이 알고리즘은 왜 필요할까? 1. Motivations - Non-linear Hypothesis ex. Housing Problem 두 개의 feature간의 상관 정도 : 선형 회귀 -> 하지만 기계 학습에서는 2개보다는 더 많은 feature가 필요 feature에 따른 주택 값을 예측 : 분류 문제 -> 비선형적 but, feature가 많을수록, 모든 요소를 고려하기에는 너무 많고 Overfitting의 문제가 발생할 수 있음 -> 대안 : 요소 중에 어떤 부분집합만 포함 -> 요소가 많을수록 급격하게 요소 공간을 확대하게 되므로, 비선형적 분류를 위.. 2020. 3. 1.